WO2013136399A1 - 情報提供システム、情報提供装置、撮影装置、およびコンピュータプログラム - Google Patents

情報提供システム、情報提供装置、撮影装置、およびコンピュータプログラム Download PDF

Info

Publication number
WO2013136399A1
WO2013136399A1 PCT/JP2012/007971 JP2012007971W WO2013136399A1 WO 2013136399 A1 WO2013136399 A1 WO 2013136399A1 JP 2012007971 W JP2012007971 W JP 2012007971W WO 2013136399 A1 WO2013136399 A1 WO 2013136399A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
shooting
information providing
camera
information indicating
Prior art date
Application number
PCT/JP2012/007971
Other languages
English (en)
French (fr)
Inventor
岡田 孝文
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/980,591 priority Critical patent/US20140049654A1/en
Priority to CN2012800061644A priority patent/CN103416050A/zh
Publication of WO2013136399A1 publication Critical patent/WO2013136399A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Definitions

  • the present disclosure relates to an information providing system including a photographing apparatus connectable to a network and an information providing apparatus that provides information to the photographing apparatus, and a computer program used in the system.
  • an information terminal equipped with a GPS (Global Positioning System) receiver accesses a server via a network, acquires information about an object in a landscape seen from the current position from the server, and displays the information.
  • GPS Global Positioning System
  • Patent Document 2 the sun is reflected within a photographing range determined by the angle of view of the photographing device based on information such as the current position, orientation, and tilt of the photographing device and information on the current solar altitude and weather.
  • An example is disclosed in which it is determined whether or not the image is backlit and a warning is displayed to the user.
  • This disclosure provides a new technology that allows the user to grasp in advance various information that supports outdoor shooting.
  • An information providing apparatus includes an acquisition unit that acquires first information indicating a position and an orientation of a photographing apparatus, and the terrain and building around the photographing apparatus based on the first information.
  • the second information indicating the arrangement, and the third information indicating at least one of the operation status of the public transportation and the sun's orbit are obtained from the recording medium, and the imaging device performs imaging based on the first to third information.
  • a control unit that determines whether or not a shooting target or a non-shooting target is included in the range, and outputs information indicating the determination result.
  • FIG. 1 It is a figure which shows the whole structure of the information provision system in exemplary embodiment. It is a block diagram which shows the structure of the imaging device 10 in exemplary embodiment. It is a block diagram which shows the structure of the information provision apparatus 30 in example embodiment. It is a flowchart which shows operation
  • FIG. 10 is a flowchart illustrating backlight determination processing executed by the information providing server in Exemplary Embodiment 2. It is a flowchart which shows the determination process of the sunrise performed with the information provision server in illustrative Embodiment 3.
  • FIG. It is a block diagram which shows the structure of the camera in illustrative Embodiment 4.
  • FIG. It is a flowchart which shows the determination process of the shade performed with the information provision server in illustrative Embodiment 4.
  • It is a block diagram which shows the structure of the information provision apparatus in other embodiment. It is a flowchart which shows the determination process performed with the information provision apparatus in other embodiment.
  • the inventor has found the above-mentioned problem and completed the technique of the present disclosure. According to the embodiment of the present disclosure, it is possible to prevent the interruption of the shooting and the change of the shooting site by causing the user to grasp various information supporting the outdoor shooting at the time of shooting or before shooting. In addition, according to another embodiment, since the user can grasp whether or not an object that the user wants to shoot is correctly shot, it is possible to simplify a prior detailed investigation.
  • FIG. 1 is a diagram illustrating an overall configuration of an information providing system according to an embodiment.
  • the information providing system includes an imaging device 10 and an information providing device 30 that are connected to each other via a computer network 20 so as to communicate with each other.
  • FIG. 1 also shows a recording medium 40 that is an external element of the information providing system.
  • the imaging device 10 may be a digital video camera that acquires video data at a shooting site, for example.
  • the information providing apparatus 30 may be a computer such as a server computer installed in a place (for example, a studio) different from the shooting site.
  • the recording medium 40 stores information (for example, three-dimensional map data) indicating the topography and the spatial arrangement of the building, and information indicating at least one of the operation status of public transportation and the sun's orbit. Note that these pieces of information may be distributed and stored in a plurality of recording media.
  • FIG. 2A is a block diagram illustrating a schematic configuration of the photographing apparatus 10.
  • the imaging device 10 includes an imaging unit 11 that acquires video data by imaging, a detection unit 19 that detects the position and orientation of the imaging device 10, a network communication unit 16 that communicates via a network 20, and the imaging device 10. And a control unit 14 for controlling the entire operation. These elements are connected so that electrical signals can be transmitted to each other via the bus 15.
  • the image capturing apparatus 10 includes other elements such as an operation unit (user interface) that receives user operations, a display unit (display) that displays acquired video and various types of information, and a recording medium. Can be included.
  • FIG. 2B is a block diagram illustrating a schematic configuration of the information providing apparatus 30.
  • the information providing apparatus 30 includes a network communication unit 36 that communicates information via the network 20 and a control unit 34 that controls the operation of the entire information providing apparatus 30.
  • the control unit 34 and the network communication unit 36 are connected so as to be able to transmit electrical signals to each other via the bus 35.
  • the information providing apparatus 30 includes other elements such as an operation unit (user interface) that receives user operations and a recording medium that records various data received by the network communication unit 36. You may go out.
  • FIG. 3 is a flowchart showing the overall operation flow of the photographing apparatus 10 and the information providing apparatus 30.
  • the imaging device 10 first detects the position and orientation of the imaging device 10 in step S10. The detection is performed by the detection unit 19.
  • the position of the imaging device 10 is specified by three-dimensional coordinates (for example, latitude, longitude, altitude), and can be detected using, for example, a GPS receiver.
  • the orientation of the imaging device 10 is specified by the azimuth and the elevation angle, and can be detected using, for example, a magnetic compass and an acceleration sensor.
  • the detection unit 19 is an element having such a GPS receiver, a magnetic compass, and an acceleration sensor.
  • step S ⁇ b> 11 the control unit 14 in the photographing apparatus 10 transmits first information indicating the detected position and orientation of the photographing apparatus 10 via the network communication unit 16.
  • the control unit 14 may transmit the first information including information indicating the angle of view of the imaging device 10.
  • the angle of view represents the range of the space photographed by the photographing apparatus 10 as an angle, and is determined by the focal length of the lens and the size of the image sensor. If the control unit 14 is configured to transmit information indicating the angle of view, the imaging range of the imaging device 10 can be transmitted to the information providing device 30 more accurately.
  • the network communication unit 36 in the information providing apparatus 30 receives the first information transmitted from the imaging apparatus 10.
  • the control unit 34 in the information providing device 30 receives, from the recording medium 40, second information indicating the terrain around the photographing device 10 and the spatial arrangement of the building based on the received first information. get.
  • the recording medium 40 may be referred to as a database (hereinafter referred to as “peripheral environment database”) including information on the topography (including information on mountains, rivers, oceans, trees, etc.) and the arrangement of buildings in a three-dimensional space. ) Is stored.
  • the control part 34 acquires the information in the periphery of the imaging device 10 among the information contained in a surrounding environment database as 2nd information.
  • the “periphery” may be within a range of, for example, a radius of several tens of meters to several kilometers, depending on the shooting conditions and the shooting target.
  • the control unit 34 acquires, from the recording medium 40, the third information indicating at least one of the operation status of the public transportation and the solar trajectory based on the first information.
  • the recording medium 40 stores a database including information on the operation status of public transportation (aircraft, train, bus, etc.) and at least one of the sun's orbit.
  • the control unit 34 acquires, as third information, information related to at least one of the public transportation and the sun that may affect shooting at the position of the shooting device 10 among the information included in the database.
  • the third information includes a target that the photographing apparatus 10 is scheduled to shoot (hereinafter, may be referred to as “photographing target”) and a target that the photographic apparatus 10 is scheduled to avoid photographing (hereinafter “non-photographing target”).
  • shooting object For example, in a use for avoiding shooting of public transportation, the public transportation becomes “non-photographing target”, and information indicating the operation status of the public transportation is acquired as the third information. On the other hand, in the application of photographing the sunrise, the sun is the “photographing target”, and information indicating the orbit of the sun is acquired as the third information.
  • the object to be imaged and the object to be imaged differ depending on the embodiment, and various aspects are possible. Types of shooting targets and non-shooting targets will be described later.
  • the control unit 34 determines whether the imaging target or the non-imaging target is included in the imaging range based on the acquired first to third information.
  • the “shooting range” means a range in a three-dimensional space displayed on an image acquired by the shooting device 10 by shooting. For example, when the sun is located outside the range defined by the angle of view of the photographing apparatus 10, the sun is located outside the photographing range. Even if the sun is located within the range defined by the angle of view, if it is not displayed in the image by being blocked by an object such as a mountain or a building, the sun will be located outside the shooting range. Become. In the following description, the fact that an object is located within the shooting range may be expressed as “photographed by the camera”.
  • the control unit 34 determines whether the public transportation is included in the photographing range. Further, when the shooting target is sunrise, it is determined whether or not the sun is included in the shooting range. As described above, the control unit 34 performs a determination process according to the imaging target and the non-imaging target. These determinations are based on the first to third information, and comprehensively determine the position and orientation of the image capturing device 10, the topography around the image capturing device 10 and the spatial arrangement of buildings, and public transportation and / or the movement of the sun. It is done by judging.
  • control unit 34 specifies a range defined by the angle of view of the imaging device 10 based on the position and orientation of the imaging device 10, and includes a mountain, a tree, a building included in the range, and an imaging target (or Whether or not the photographing target (or non-photographing target) is photographed is determined from the positional relationship with the non-photographing target).
  • FIG. 4 is a conceptual diagram for explaining an example of this determination process.
  • the control unit 34 has the coordinates (x1, y1, z1) of the photographing apparatus 10 and the coordinates (x2, x2) of the imaging device 10 in a three-dimensional coordinate system defined by the X axis, the Y axis, and the Z axis with the center of the earth 55 as the origin. y2, z2), and coordinates of mountains, trees, buildings, etc. (not shown) around the photographing apparatus 10 are specified.
  • the coordinates of the photographing apparatus 10 are obtained by converting from the latitude, longitude, and altitude information.
  • the control unit 34 determines a range in the three-dimensional space that may be included in the shooting range (the range surrounded by the four broken lines in FIG. 4) from the vector 53 indicating the orientation of the shooting device 10 and the information on the angle of view. Is identified. Then, the control unit 34 refers to the terrain and building data and the sun position data to determine whether or not the sun 50 is included in the shooting range without being blocked by mountains, trees, buildings, or the like. judge. This determination process is an example, and the control unit 34 may perform the determination by another method.
  • step S ⁇ b> 16 the control unit 34 transmits information indicating the determination result to the photographing apparatus 10 via the network communication unit 36. Then, in step S ⁇ b> 17, the imaging device 10 receives information indicating the determination result through the network communication unit 16, and the control unit 14 causes the display unit to display the determination result.
  • the user of the imaging apparatus 10 knows whether or not the “shooting target” for which shooting is desired or the “non-shooting target” for which shooting is not desired is included in the shooting range (whether shooting is performed). be able to.
  • the control unit 34 in the information providing apparatus 30 is not limited to the above determination, and may be configured to make various determinations according to the type of imaging target or non-imaging target and notify the imaging apparatus 10 of the determination. Good.
  • typical types of shooting targets and non-shooting targets and examples of determination contents will be described.
  • FIG. 5 is a table showing typical examples of “photographing target” and “non-photographing target” and examples of determination contents in each example.
  • Example 1 is an example when the non-photographing target is public transportation (aircraft, train, bus, etc.).
  • Example 2 is an example in the case where the subject to be photographed is public transportation.
  • the determination contents in Examples 1 and 2 are, for example, (i) whether or not public transportation is included in the shooting range, (ii) time when public transportation is included in the shooting range, or time until it is included, (iii) Whether or not public transportation passes nearby, (iv) the time when public transportation passes or the time until it passes, and (v) the orientation of the imaging device that includes public transportation in the shooting range , Etc. can be considered.
  • the control unit 34 makes these determinations and notifies the imaging apparatus 10 of the determination results, so that the user can take measures to avoid shooting of public transportation or intentionally capture public transportation. Measures can be taken.
  • Example 3 is an example when the non-photographing target is the sun, that is, when shooting with backlight is avoided.
  • Example 4 is an example in the case where the subject to be photographed is the sun, for example, intentionally photographing sunrise, sunset, solar eclipse and the like.
  • the determination contents in Examples 3 and 4 are, for example, (i) whether or not the sun is included in the shooting range, (ii) the time when the sun is included in the shooting range or the time until it is included, and (iii) the sun is in the shooting range.
  • the orientation of the photographing device that is included in the image can be considered.
  • the control unit 34 makes these determinations and notifies the imaging apparatus 10 of the determination results, so that the user can take measures for avoiding shooting of backlight, or measures for intentionally shooting sunrise or sunset. Can be taken.
  • Example 5 is an example where the non-photographing target is shaded.
  • Example 6 is an example in the case where the subject to be photographed is shaded.
  • the determination contents in Examples 5 and 6 are, for example, (i) whether or not the shade is included in the shooting range, (ii) whether or not the main subject is in the shade, and (iii) the main subject is in the shade.
  • the time of entry or the time until entry, (iv) the direction of the photographing apparatus that allows the main subject to enter the shade, (v) the ratio of the shade in the entire screen, etc. are conceivable.
  • the control unit 34 makes these determinations and notifies the imaging device 10 of the determination results, the user may take measures to avoid shooting in the shade or intentionally capture the shade. it can.
  • Example 7 is an example in which both a shooting target and a non-shooting target are set.
  • public transportation is set as a shooting target, and the sun is set as a non-shooting target.
  • the determination contents in Example 7 can be any combination of the determination contents in Examples 2 and 3.
  • the control unit 34 makes these determinations and notifies the imaging device 10 of the determination results, so that the user can take measures to shoot public transportation while avoiding backlighting. In this way, both the shooting target and the shooting target may be set.
  • Example 7 it is assumed that public transportation is intentionally shot and backlight is avoided, but the combination of the shooting target and the non-shooting target may be other combinations.
  • a shooting target or a non-shooting target is included in the shooting range based on information on the position and orientation of the shooting device, terrain, buildings, public transportation, or the sun.
  • Various determinations including whether or not to be performed are performed, and determination results are notified to the imaging apparatus.
  • the present embodiment relates to an information providing system that provides various types of information to a user in order to prevent public transportation from appearing on a photographing apparatus.
  • the user is provided with various types of information related to public transportation that is “non-photographing target”.
  • FIG. 6 is a diagram showing an overall configuration of the information providing system in the present embodiment.
  • This information providing system includes a digital video camera (hereinafter simply referred to as “camera”) 100 and an information providing server 220 that can communicate with each other via a network 210.
  • a plurality of recording media for storing a map database 230, a building database 240, and a public transportation database 250 are also connected to the network 210.
  • the 6 is a public network such as the Internet or a dedicated line, and connects the camera 100 and the information providing server 220.
  • the camera 100 can transmit information regarding the position, orientation, and angle of view of the camera 100 to the information providing server 220 via the network 210.
  • the information providing server 220 can access the map database 230, the building database 240, and the public transportation database 250 via the network 210.
  • the information providing server 220 is a server computer (information processing apparatus) corresponding to the information providing apparatus 30 in the above description.
  • the configuration of the information providing server 220 is the same as the configuration shown in FIG. 2B.
  • the information providing server 220 acquires information on the position, orientation, and angle of view of the camera 100, and whether or not public transportation that is a non-shooting target is included in the shooting range of the camera 100 (whether or not it is reflected in the camera 100). ) To notify the camera 100 of the determination result.
  • the information providing server 220 obtains necessary information from the map database 230, the building database 240, and the public transportation database 250 and performs the above determination.
  • the map database 230 provides map and terrain data at arbitrary points.
  • the building database 240 is data on the shape and size of the building, and provides data indicating the spatial arrangement on the three-dimensional coordinates.
  • the public transport database 250 provides real-time operation status data such as which position a public transport such as a train, bus, or aircraft is currently operating.
  • the map database 230 and the building database 240 may be integrated as a three-dimensional map database.
  • FIG. 7 is a block diagram showing the configuration of the camera 100 in the present embodiment.
  • the camera 100 includes an imaging unit 110, a codec 120, an image display unit 130, a control unit 140, a bus 150, a network unit 160, a recording medium 170, a position detector 180, an azimuth detector 182, an elevation angle detector 184, and an angle of view detection unit. 186.
  • the imaging unit 110 includes an optical system such as a lens and an imaging device such as a CCD (charge-coupled device) or a CMOS (complementary metal-oxide-semiconductor) sensor.
  • the imaging unit 110 is connected to the codec 120, the image display unit 130, the control unit 140, and the angle of view detection unit 186.
  • the codec 120, the image display unit 130, the control unit 140, the network communication unit 160, the recording medium 170, the position detector 180, the azimuth detector 182, the elevation angle detector 184, and the angle of view detection unit 186 are connected to the bus 150, respectively. Electric signals can be transmitted to each other.
  • the codec 120 is a circuit that compresses and decompresses the video signal generated by the imaging unit 110 and outputs the compressed video signal.
  • the image display unit 130 is a display capable of displaying the acquired video and various setting information.
  • the control unit 140 is a processor such as a CPU (Central Processing Unit) or a microcomputer (microcomputer) that controls the operation of the entire photographing apparatus 100.
  • the control unit 140 controls each unit by executing a control program.
  • the recording medium 170 is a memory such as a DRAM and stores a control program executed by the control unit 140 and various data generated in the process.
  • the control unit 140 may be realized by a combination of hardware such as an integrated circuit and software (program), or may be realized only by hardware.
  • the network communication unit 160 is a network interface capable of transmitting and receiving information via the network 210.
  • the angle of view detection unit 186 is a detection mechanism that specifies the angle of view based on the zoom value in the imaging unit 110 and the size of the imaging element.
  • the position detector 180 is a detector that detects the position of the camera 100, and may be realized by a receiver that receives a GPS signal, for example.
  • the azimuth detector 182 is a detector that detects the azimuth of the camera 100 and can be realized by a magnetic compass, for example.
  • the elevation angle detector 184 is a detector that detects the elevation angle of the camera 100 and can be realized by, for example, an acceleration sensor.
  • the camera 100 may include other components not shown in addition to the above elements.
  • an operation panel that receives user operations
  • a power supply circuit that supplies power to each unit
  • a camera shake correction mechanism that supplies power to each unit
  • a microphone that supplies power to each unit
  • a sound processing circuit e.g., a speaker
  • the configuration of the camera 100 may be any configuration as long as the following operation can be realized.
  • the operation of the camera 100 configured as described above will be described.
  • the video signal acquired by the imaging unit 110 is compressed by the codec 120.
  • the compressed video data is transferred to the recording medium 170 via the bus 150 and recorded as a video file.
  • the control unit 140 performs transfer control of video data via the bus 150, control of an operation for recording video data as a file, and the like.
  • the video is recorded by the camera 100 through the above operation.
  • description is abbreviate
  • the camera 100 can specify the current position of the camera, for example, by receiving a GPS signal using the position detector 180. Further, the camera 100 can specify the azimuth (horizontal angle) that the camera is facing using the azimuth detector 182. Furthermore, the camera 100 can specify the elevation angle (the angle in the vertical direction) in the direction in which the camera 100 is facing by using the elevation angle detector 184. In addition, the camera 100 can detect a zoom value and an optical value from an optical system such as a lens and a sensor of the imaging unit 110 by using the angle of view detection unit 186 and specify the angle of view to be captured.
  • an optical system such as a lens and a sensor of the imaging unit 110
  • the network communication unit 160 connects the camera 100 to the network 210 in a wired or wireless manner.
  • the camera 100 can transmit data detected by each detector of the camera 100 to the network 210 through the network communication unit 160.
  • the control unit 140 in the camera 100 transmits data detected by the position detector 180, the azimuth detector 182, the elevation angle detector 184, and the field angle detection unit 186 to the network 210 via the network communication unit 160. Data transmitted from the camera 100 is transmitted to the information providing server 220 via the network 210.
  • the information providing server 220 first accesses the map database 230 shown in FIG. 6 based on the position information detected by the position detector 180 shown in FIG. Then, map data in the vicinity where the camera 100 is located is acquired. For example, map data within a radius of several hundred meters to several kilometers from the position of the camera 100 is acquired.
  • the information providing server 220 acquires the acquired map data, the azimuth information detected by the azimuth detector 182 shown in FIG. 7, the elevation angle information detected by the elevation angle detector 184, and the image detected by the angle of view detection unit 186. Based on the corner information, a building that may be captured by the camera 100 (included in the shooting range) is specified. Then, the information providing server 220 acquires, from the building database 240, data related to the arrangement of the building that may be captured by the camera 100 in the three-dimensional space. As a result, the information providing server 220 can grasp the size and positional relationship of a building that may be captured by the camera 100. As a result, it can be seen that buildings, railroad tracks, roads, sky, and the like are shown within the range of the angle of view of the video, so it is possible to specify which public transportation is shown in the video together with the map data described above.
  • the information providing server 220 accesses the public transport database 250 regarding the specified public transport. And the information regarding real time operation positions, such as a train, a bus, and an airplane, is acquired. As a result, since the current position of the specified public transportation facility is known, it is possible to grasp in advance how many minutes a train, bus, aircraft, etc. will pass within the current angle of view of the camera 100.
  • the information providing server 220 transmits information regarding the detected passage of public transportation to the camera 100 via the network 210.
  • the control unit 140 in the camera 100 acquires the information via the network communication unit 160. Based on the received information, the control unit 140 displays information related to the passage of the public transportation on the image display unit 130. Accordingly, it is possible to notify the user of the camera 100 in advance that a train, a bus, an aircraft, and the like appear in the video.
  • FIG. 8 is a flowchart showing a determination process related to public transportation executed by the information providing server 220.
  • the information providing server 220 communicates with the camera 100 via the network 210 to obtain data on the current position, azimuth, elevation angle, and angle of view of the camera 100. These data correspond to the first information in the example shown in FIG.
  • the information providing server 220 accesses the map database 230 via the network 210, and obtains map data around the camera 100 based on information on the current position of the camera 100.
  • step S420 the information providing server 220 specifies a building reflected in the camera based on the current position, orientation, elevation angle, angle of view, and surrounding map data acquired from the map database.
  • step S430 the information providing server 220 accesses the building database 240, and obtains the building data specified in step S420. These map data and building data correspond to the second information in the example shown in FIG.
  • step S440 the information providing server 220 identifies the public transportation system that is captured by the camera based on the current position, orientation, elevation angle, angle of view, map data, and building data of the camera.
  • step S450 the information providing server 220 accesses the public transport database 250 and obtains data on the current operation status of the public transport specified in step S440.
  • This operation status data includes the current operation position of public transportation. This data corresponds to the third information in the example shown in FIG.
  • step S460 the information providing server 220 specifies the time when the public transportation is reflected in the camera and the position where the public transportation is reflected in the camera based on the data of the operation status.
  • step S470 the information providing server 220 communicates with the camera 100 via the network 210 and notifies the camera of the information specified in step S460. The above processing is performed by the control unit of the information providing server 220 shown in FIG.
  • control unit 140 shown in FIG. 7 may display information regarding the passage of public transportation on the image display unit 130, but a simple warning display may be used. May be displayed, or the time until passing may be displayed.
  • the information providing server 220 uses information on the current position, azimuth, elevation, and angle of view of the camera 100, map information around the camera 100, and building information.
  • the public transportation that may be captured by the camera 100 is identified.
  • the information providing server 220 may perform other determinations illustrated in FIG. 5 in addition to the determination operation described above, and notify the camera 100 of the determination. Further, it may be first determined whether or not the public transportation is included in the shooting range, and another determination may be performed according to the determination result. For example, when it is determined that the public transportation is included in the shooting range, the result is notified to the camera 100, and when it is determined that the public transportation is not included, the time until the public transportation is included in the shooting range. May be notified to the camera 100. Alternatively, the camera 100 may be notified of information regarding the time when the public transportation is included in the shooting range and the orientation of the camera 100. If such a variety of information is provided to the user, more efficient shooting can be performed.
  • the present embodiment relates to sunlight at the time of outdoor shooting, and particularly to an information providing system that provides information to a user by detecting in advance the backlight that sunlight is from behind the subject.
  • various types of information relating to sunlight that is “non-photographing target” are provided to the user.
  • the overall configuration of the information providing system in the present embodiment is the same as that in Embodiment 1 shown in FIG. However, in this embodiment, instead of the public transport database 250, a database relating to the orbit of sunlight is used.
  • the information providing server 220 itself may have a database relating to the orbit of sunlight. Since the physical configuration of the information providing server 220 is the same as that in the first embodiment, the description thereof is omitted.
  • FIG. 9 is a block diagram showing a configuration of the camera 200 in the present embodiment.
  • the camera 200 according to the present embodiment has an operation unit 190 (user interface) for the user to specify the shooting date and time.
  • the operation unit 190 can be realized by, for example, an operation button and a touch panel provided on the image display unit 130. By operating the operation unit 190, the user can specify the date and time when shooting is scheduled. Since the components other than the operation unit 190 are the same as those in the first embodiment, the description thereof will be omitted.
  • the control unit 140 in the camera 200 transmits data detected by the position detector 180, the azimuth detector 182, the elevation angle detector 184, and the angle of view detection unit 186 to the network 210 via the network communication unit 160. Data transmitted from the camera 200 is transmitted to the information providing server 220 via the network 210.
  • the information providing server 220 uses the specified date and time information in addition to the position, orientation, and angle of view information of the camera 200.
  • This designated date and time information is the date and time set by the user of the camera 200 in FIG.
  • the information providing server 220 examines the state of sunlight at the designated photographing date and time.
  • the control unit 140 transmits the designated date / time information to the network 210 via the network communication unit 160. At this time, the designated date / time information transmitted from the camera 200 is transmitted to the information providing server 220 via the network 210.
  • the information providing server 220 first accesses the map database 230 shown in FIG. 6 based on the position information detected by the position detector 180 shown in FIG. Then, map data in the vicinity where the camera 200 is located is acquired. For example, map data within a radius of several hundred meters to several kilometers from the position of the camera 200 is acquired.
  • the information providing server 220 converts the acquired map data, the azimuth information detected by the azimuth detector 182, the elevation angle information detected by the elevation angle detector 184, and the angle of view information detected by the angle of view detection unit 186. Based on this, a building that is likely to be captured by the camera 200 is identified. Then, the information providing server 220 acquires from the building database 240 data regarding the arrangement of the building that may be captured by the camera 200 in the three-dimensional space. As a result, the information providing server 220 can grasp the height of a building existing around the image captured by the camera 200 and the positional relationship with the camera.
  • the information providing server 220 calculates the position of the sun using the position information of the camera detected by the position detector 180 and the specified date and time information set by the user. If the position information and the date and time information are known, the azimuth and elevation angle of the sun can be specified.
  • the information providing server 220 compares the identified sun azimuth and elevation information with the camera 200 azimuth, elevation, and angle of view data, and determines whether the sun falls within the camera angle of view. If the sun is located within the angle of view of the camera, it may be backlit.
  • the information providing server 220 knows the height and positional relationship of surrounding buildings, it is possible to determine a case where the buildings do not block the sun and become backlit. For example, even if there is a possibility that the sun appears in the background of the video to be photographed, there is a case where there is actually a building such as a tall building and the sun does not appear in the background of the video and the backlight does not appear. Even in such a case, the information providing server 220 can accurately determine whether or not the sun is included in the shooting range.
  • the information providing server 220 transmits these determination results as backlight information to the camera 200 via the network 210.
  • the control unit 140 in the camera 200 illustrated in FIG. 9 acquires backlight information via the network communication unit 160. Based on the received backlight information, the control unit 140 can display the backlight information on the image display unit 130 to notify the user of the camera 200 whether the sun is reflected at the specified date and time. Become.
  • FIG. 10 is a flowchart showing backlight determination processing executed by the information providing server 220.
  • the information providing server 220 communicates with the camera 200 via the network 210, and obtains data of the current position, azimuth, elevation angle, angle of view, and designated date and time of the camera 200.
  • the information providing server 220 accesses the map database 230 via the network 210, and obtains map data around the camera based on information on the current position of the camera.
  • step S520 the information providing server 220 identifies a building reflected in the camera based on the current position, orientation, elevation angle, angle of view, and surrounding map data acquired from the map database 230.
  • step S530 the information providing server 220 accesses the building database 240 and obtains the data of the building specified in step S520.
  • step S540 the information providing server 220 specifies the position of the sun from the current position of the camera and information on the designated date and time.
  • step S550 the information providing server 220 specifies whether the sun is reflected in the camera angle of view based on the current position, azimuth, elevation angle, angle of view of the camera, and the sun position specified in step S540. To do.
  • step S560 the information providing server 220 also refers to the building data obtained in step S530, and specifies whether the sun is reflected within the angle of view of the camera.
  • step S570 the information providing server 220 communicates with the camera via the network 210, and notifies the camera of the information specified in step S560.
  • the method of displaying the information related to backlight on the image display unit 130 by the control unit 140 in FIG. 9 may be a simple warning display related to backlight.
  • the predicted position of the sun is displayed on the screen superimposed on the current video. It may be displayed above.
  • the information providing server 220 uses the information on the surrounding buildings and the sun's orbit in addition to the position, orientation, elevation angle, and angle of view of the camera 200, so that the user can Whether the shooting site is backlit at the designated date and time is accurately determined, and information indicating the determination result is provided to the camera 200. Thereby, the user can avoid the situation where the backlight is photographed in the actual photographing.
  • the information providing server 220 may perform other determinations shown in FIG. 5 in addition to the determination operation described above, and notify the camera 200 of the determination. For example, the time when the sun is included in the shooting range, the time until it becomes included, and the direction may be notified. Even if the sun does not appear within the shooting range at the specified time, shooting may be hindered if the sun falls within the shooting range over time or if the sun is located just outside the shooting range. There is. In order to avoid such a case, displaying the time information as described above on the camera 200 is effective in calling attention to the user.
  • the present embodiment relates to an information providing system that provides information for photographing the sun to a user when the user wants to photograph the sun intentionally in outdoor photographing.
  • the user is provided with various information related to sunlight that is the “photographing target”.
  • This embodiment is effective, for example, when shooting a sunrise scene, a sunset scene, or a solar eclipse. In the following, it is assumed that the shooting of a sunrise scene is supported.
  • the overall configuration of the information providing system in the present embodiment is the same as the overall configuration in the second embodiment.
  • the components of the information providing server 220 and the camera 200 are the same as those in the second embodiment.
  • description of matters common to the second embodiment will be omitted, and different points will be mainly described.
  • the camera 200 transmits position information, azimuth information, elevation angle information, field angle information, and designated date and time information set by the user to the network 210.
  • the control unit 140 in the camera 200 includes data detected by the position detector 180, the azimuth detector 182, the elevation angle detector 184, and the angle of view detection unit 186, and designated date and time information set by the user.
  • the data is transmitted to the network 210 via the network communication unit 160.
  • Data and designated date / time information transmitted from the camera 200 are transmitted to the information providing server 220 via the network 210.
  • the information providing server 220 first accesses the map database 230 shown in FIG. 6 based on the position information detected by the position detector 180. Then, map data in the vicinity where the camera 200 is located is acquired. This map data includes surrounding terrain, particularly surrounding terrain and elevation data that affect sunrise.
  • the information providing server 220 is based on the acquired map data, the azimuth information detected by the azimuth detector 182, the elevation angle information detected by the elevation angle detector 184, and the angle of view information detected by the angle of view detection unit 186. Then, a building that is likely to be captured by the camera 200 is specified. Then, the information providing server 220 acquires from the building database 240 data regarding the arrangement of the building that may be captured by the camera 200 in the three-dimensional space. As a result, the information providing server 220 can grasp the height of a building existing around the image captured by the camera 200 and the positional relationship with the camera. In addition, since the map data acquired from the map database 230 includes the surrounding terrain and elevation data, it is possible to grasp the height of the surrounding mountains of the video taken by the camera 200 and the positional relationship with the camera. Become.
  • the information providing server 220 obtains the position of the sun using the position information of the camera 200 detected by the position detector 180 and the specified date and time information set by the user. If the position information and the date and time information are known, the azimuth and elevation angle of the sun can be specified. Here, in particular, in order to support shooting of sunrise, the time, azimuth, and elevation angle at which the sun appears on the ground surface at the time closest to the specified date and time information set by the user are obtained.
  • the information providing server 220 compares the specified sun azimuth and elevation angle information with the camera 200 azimuth, elevation angle, and angle of view data, and determines whether sunrise is included in the camera 200 angle of view. At this time, since the information providing server 220 knows the height and positional relationship of the buildings and mountains around the camera, it can accurately determine whether the sunrise appears from behind the buildings or mountains reflected in the camera 200. Judgment can be made. Furthermore, it is also possible to detect a difference amount indicating how much the expected sunrise deviates from the current camera orientation, elevation angle, and field angle.
  • the information providing server 220 transmits these determination results to the camera 200 via the network 210 as sunrise information. Specifically, the sunrise time information closest to the specified date and time information set by the user, position information indicating where the sunrise appears in the shooting range of the current camera, or the current camera orientation and elevation angle , Information on the difference from the expected sunrise appearance position is transmitted to the angle of view.
  • the control unit 140 of the camera 200 acquires the sunrise information via the network communication unit 160.
  • the control unit 140 displays the expected sunrise time on the image display unit 130 based on the sunrise time information in the received sunrise information. Thereby, it becomes possible to notify the user of the camera 200 of the appearance time of sunrise closest to the specified date and time information set by the user.
  • control unit 140 can also display the expected sunrise position on the image display unit 130 based on the information regarding the sunrise position among the received sunrise information. Thereby, it becomes possible to inform the user of the camera 200 of the position where the sunrise appears within the shooting range of the camera.
  • control unit 140 displays a difference amount with respect to the current azimuth, elevation angle, and angle of view on the image display unit 130 based on information on a difference from the sunrise appearance position in the received sunrise information, or predicts By displaying the appearance direction and the like, it is possible to notify the user of the camera 200 of information such as the azimuth, elevation angle, and angle of view to which the camera should be moved in order to capture the sunrise.
  • FIG. 11 is a flowchart showing sunrise determination processing executed by the information providing server 220.
  • the information providing server 220 communicates with the camera via the network 210, and obtains data of the current position, azimuth, elevation angle, angle of view, and designated date and time of the camera.
  • the information providing server 220 accesses the map database 230 via the network 210, and obtains map data around the camera 200 based on information on the current position of the camera 200.
  • step S620 the information providing server 220 specifies a building reflected in the camera 200 based on the current position, orientation, elevation angle, angle of view, and surrounding map data acquired from the map database 230.
  • step S630 the information providing server 220 accesses the building database 230 and obtains the data of the building specified in step S620.
  • step S640 the information providing server 220 specifies the time, direction, and elevation angle at which the sun appears on the ground surface at the time closest to the specified date and time based on the current position of the camera 200 and the information on the specified date and time.
  • step S650 the information providing server 220 captures the sunrise within the angle of view of the camera 200 based on the current position, azimuth, elevation angle, angle of view of the camera 200, and the azimuth and elevation angle of sunrise specified in step S640. To identify. In addition, a difference amount between the current azimuth, elevation angle, and field angle of the camera 200 and the azimuth, elevation angle, and field angle at which the sunrise appears is specified. Furthermore, the time when sunrise is reflected is specified.
  • step S660 the information providing server 220 also refers to the terrain data of the map data obtained in step S610 and the building data obtained in step S630, and determines whether or not the sunrise appears in the angle of view of the camera 200. Identify.
  • step S670 the information providing server 220 communicates with the camera via the network 210, and notifies the camera of the information specified in step S660.
  • the information providing server 220 provides the user with information that supports photographing when it is desired to photograph the sun intentionally, such as photographing the sunrise. As a result, the user can easily photograph the sunrise.
  • FIG. 12 is a block diagram showing the configuration of the camera 300 in the present embodiment.
  • the camera 300 includes an imaging unit 310, a codec 320, an image display unit 330, a control unit 340, a bus 350, a network communication unit 360, a recording medium 370, a position detector 380, an azimuth detector 382, an elevation angle detector 384, and an angle of view detection.
  • the camera 300 is almost the same as the camera 200 of FIG. 9 described in the second embodiment, except that a distance detector 388 is added to the camera 300. Since other elements are the same as the corresponding elements in the first embodiment, the description thereof is omitted.
  • the operation for capturing and recording the video is also the same as the operation in the camera 100 of FIG.
  • the distance detector 388 is a distance measurement camera, for example, and detects the distance from the camera 300 to the subject.
  • the distance measurement camera performs distance measurement by irradiating a subject with light from a light source having a specific light emission pattern and measuring a time until reflected light from the subject is detected.
  • There are various methods for measuring distances such as a distance measurement method using a laser, such as a laser range finder used in the field of robots, and a distance measurement method using ultrasonic waves or millimeter waves. is there.
  • the distance detection method is not limited to a specific method.
  • a subject whose distance is detected by the distance detector 388 may be referred to as a “main subject”.
  • the main subject refers to a subject that is focused manually by the user or automatically by the camera 300.
  • a main subject is a person, animals or plants, or an object near the center of the shooting range, or a face or a conspicuous object of an automatically detected person.
  • designated date and time information is used as in the second and third embodiments.
  • This designated date and time information is the date and time set by the user of the camera 300 shown in FIG.
  • the information providing server 220 checks the state of sunlight at the scheduled time on the shooting day.
  • the control unit 340 transmits the specified date / time information to the network 210 via the network communication unit 360.
  • the designated date / time information transmitted from the camera 100 is transmitted to the information providing server 220 via the network 210.
  • the information providing server 220 first accesses the map database 230 of FIG. 2 based on the position information detected by the position detector 380. Then, map data in the vicinity where the camera 300 is located is acquired. For example, map data within a radius of several hundred meters to several kilometers from the position of the camera 300 is acquired.
  • the information providing server 220 is based on the acquired map data, the orientation information detected by the orientation detector 382, the elevation angle information detected by the elevation angle detector 384, and the angle of view information detected by the angle of view detection unit 386.
  • a building that may be captured by the camera 300 and surrounding buildings that affect the shooting are identified.
  • the information provision server 220 acquires the data regarding these buildings from the building database 240.
  • the information providing server 220 can grasp the height of the building existing around the video captured by the camera 100 and the positional relationship between the building and the camera 300.
  • the information providing server 220 obtains the position of the sun using the position information of the camera 300 detected by the position detector 380 and the specified date / time information set by the user. If the position information and the date and time information are used, the azimuth and elevation angle of the sun can be specified.
  • the information providing server 220 identifies a shaded area around the camera 300 from the identified information on the azimuth and elevation of the sun and the information on the shape and height of the surrounding building. Then, with reference to the distance information detected by the distance detector 388, it is determined whether or not the main subject of the camera 300 enters the shade.
  • the information providing server 220 transmits these determination results to the camera 300 via the network 210.
  • the control unit 340 of the camera 300 acquires this determination result via the network communication unit 360.
  • the control unit 340 displays the determination result on the image display unit 330 based on the received determination result, so that the user of the camera 300 can be notified whether the main subject enters the shade at the specified date and time. .
  • FIG. 13 is a flowchart showing shade determination processing executed by the information providing server 220.
  • the information providing server 220 communicates with the camera 300 via the network 210, and obtains data of the current position, azimuth, elevation angle, field angle, distance, and designated date and time of the camera 300.
  • step S ⁇ b> 710 the information providing server 220 accesses the map database 230 via the network 210 and obtains map data around the camera 300 based on information on the current position of the camera 300.
  • step S760 the information providing server also refers to the distance information of the camera, and specifies whether the subject to be photographed enters the shade.
  • step S770 the information providing server 220 communicates with the camera via the network, and notifies the camera 300 of the information specified in step S760.
  • a warning display indicating the determination result as to whether or not the main subject enters the shade may be simply performed.
  • Other information about the sunflower may be displayed.
  • a mechanism for transmitting the video compressed by the codec 320 of FIG. 12 to the network 210 in real time via the network communication unit 360 may be added.
  • a real-time video is transmitted from the camera 300 to the information providing server 220.
  • the information providing server 220 decodes the received video, further processes the video to display the expected shade, and compresses the processed video and sends it back to the camera 300.
  • the distance to the main subject is detected and it is determined whether or not the main subject is in the shade.
  • the information providing server 220 may determine whether or not the shade is included in the shooting range, or may determine whether or not the shade ratio in the shooting range is greater than a predetermined threshold.
  • the information providing server 220 may perform other determinations shown in FIG. 5 in addition to the determination operation described above, and notify the camera 200 of the determination. For example, the time when the main subject enters the shade or the time until the main subject enters, or the direction of the camera 300 where the main subject enters the shade may be notified.
  • Embodiments 1 to 4 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed. In addition, it is possible to combine the components described in the first to fourth embodiments to form a new embodiment. Therefore, other embodiments will be exemplified below.
  • a weather information database may be further used to determine whether shooting is appropriate including weather forecasts.
  • the imaging device and the information providing server may be configured to include at least two of the functions of Embodiments 1 to 4 and to switch the functions according to a user's specification.
  • the operation unit 390 in the imaging apparatus 300 shown in FIG. 12 may be configured to set not only the scheduled shooting date and time but also at least one of the imaging target and the non-imaging target.
  • the user can freely set at least one of the imaging target and the non-imaging target by operating the operation unit 390. For example, consider a case where a user designates public transportation as a subject to be photographed and shade is designated as a subject not to be photographed.
  • control unit 340 transmits information indicating the shooting target and the non-shooting target to the information providing server 220 in addition to information such as the position, orientation, angle of view, and shooting date / time of the camera 300.
  • the control unit 34 (FIG. 2B) of the information providing server 220 that has received the information performs the determination operation shown in the first and fourth embodiments in parallel, and whether the shooting range includes public transportation.
  • the determination result about whether or not the public transportation is in the shade and the information accompanying it are transmitted to the camera 300.
  • the camera 300 displays the information sent from the information providing server 220 on the image display unit 330.
  • the user can easily take measures for photographing public transportation and avoiding shade.
  • the function in each embodiment is provided by an information providing system including a camera and an information providing server.
  • the information providing apparatus or the imaging apparatus provides the function of each embodiment independently. It may be configured.
  • examples of such embodiments will be described.
  • FIG. 14 is a block diagram illustrating a configuration example of an information providing apparatus 400 that independently provides information for supporting shooting to a user.
  • the information providing apparatus 400 may be a computer installed in a studio, for example.
  • the information providing apparatus 400 includes a network communication unit 410, an operation unit (user interface) 440, a control unit 420 that controls them, and a bus 430 that electrically connects them.
  • a network communication unit 410 an operation unit (user interface) 440
  • a control unit 420 that controls them
  • a bus 430 that electrically connects them.
  • the control unit 420 acquires data such as terrain, buildings, public transportation, and sun from the recording medium 450 via the network communication unit 410, and a desired shooting target or non-shooting target is included in the shooting range. It is determined whether or not, and the determination result is output. With such a configuration, the user can grasp the actual shooting situation using only the information providing apparatus 400 that does not assume network communication with the camera.
  • the operation unit 440 functions as an acquisition unit. However, when the information on the position and orientation of the imaging apparatus is acquired via the network communication unit 410, the network communication unit 410 functions as the acquisition unit.
  • FIG. 15 is a flowchart showing an outline of operations performed by the control unit 420 of the information providing apparatus 400.
  • the control unit 420 acquires first information indicating the position and orientation of the photographing apparatus (step S1500).
  • second information indicating the terrain around the photographing apparatus and the spatial arrangement of the building is acquired (step S1510).
  • third information indicating at least one of the operation status of public transportation and the position of the sun is acquired (step S1520).
  • it is determined whether or not the photographing target or the non-photographing target is included in the photographing range of the photographing device (step S1530).
  • the user can obtain the determination result using only the information providing apparatus 400 without operating the camera. For this reason, for example, it is possible to easily conduct a preliminary survey for outdoor shooting while in a studio.
  • the information providing apparatus performs various determination processes and outputs the determination result.
  • the imaging apparatus may be configured to perform such an operation.
  • an apparatus having the same function as that of the information providing apparatus may be mounted in the photographing apparatus.
  • the imaging device acquires necessary information such as terrain, buildings, public transportation operation status, solar trajectory, etc. through the network, performs necessary determination processing, and displays the determination results. Output to etc. Thereby, the user can obtain various information that supports outdoor shooting using only the shooting device.
  • the technique of the present disclosure is not limited to the information providing system, the information processing apparatus, and the imaging apparatus described above, but can be applied to software (computer program) that defines the processing in any of the above-described embodiments.
  • the operations defined in such a program are as shown in FIGS. 3, 8, 10, 11, 13, and 15, for example.
  • Such a program can be provided by being recorded on a portable recording medium or can be provided through a telecommunication line.
  • Various operations in the above-described embodiment can be realized by a processor built in the apparatus executing such a computer program.

Abstract

 情報提供システムは、撮影装置10および情報提供装置30を備える。撮影装置10は、撮影装置10の位置および向きを検出する検出部と、検出された撮影装置10の位置および向きを示す第1の情報をネットワーク20を介して情報提供装置30に送信する第1の制御部とを有する。情報提供装置30は、ネットワーク20を介して取得した前記第1の情報に基づいて、前記撮影装置の周辺の地形および建造物の空間配置を示す第2の情報、および公共交通機関の運行状況および太陽の軌道の少なくとも一方を示す第3の情報を記録媒体40から取得し、前記第1から第3の情報に基づいて、撮影装置10の撮影範囲内に撮影対象または非撮影対象が含まれるか否かを判定して判定結果を示す情報を撮影装置10に送信する第2の制御部とを有する。

Description

情報提供システム、情報提供装置、撮影装置、およびコンピュータプログラム
 本開示は、ネットワークに接続可能な撮影装置と、撮影装置に情報を提供する情報提供装置とを有する情報提供システム、および当該システムに用いられるコンピュータプログラムに関する。
 映画やドラマなどで使用される映像を取得するために野外撮影を実施する場合、事前に撮影現場の状況を調査したり、実際に撮影現場を訪れることにより、その現場が意図する撮影シーンに適しているかを判断することが一般に行われる。野外撮影は周辺環境の影響を受けやすいため、このような事前調査を経て、当日の撮影が実行されることが多い。
 野外で撮影装置(以下、「カメラ」と呼ぶこともある。)を利用する際に、周辺環境に関する情報をサーバから撮影装置に提供することにより、野外撮影をサポートするシステムの種々の事例が知られている。
 特許文献1には、GPS(Global Positioning System)受信機を備えた情報端末が、ネットワークを介してサーバにアクセスし、現在位置から見える景観の中の対象物に関する情報をサーバから取得して表示する例が開示されている。
 特許文献2には、撮影装置の現在の位置、方位、傾き等の情報と、現在の太陽高度や天候に関する情報などに基づいて、撮影装置の画角によって決定される撮影範囲内に太陽が写り込んで逆光になるかを判断し、ユーザに警告するための表示を行う例が開示されている。
特開2006-285546号公報 特開2008-180840号公報
 本開示は、野外撮影をサポートする種々の情報を事前にユーザに把握させることができる新たな技術を提供する。
 本開示の一実施形態に係る情報提供装置は、撮影装置の位置および向きを示す第1の情報を取得する取得部と、第1の情報に基づいて、撮影装置の周辺の地形および建造物の配置を示す第2の情報、および公共交通機関の運行状況および太陽の軌道の少なくとも一方を示す第3の情報を記録媒体から取得し、第1から第3の情報に基づいて、撮影装置の撮影範囲内に撮影対象または非撮影対象が含まれるか否かを判定し、判定結果を示す情報を出力する制御部とを備える。
 本開示によれば、野外撮影をサポートする種々の情報を事前にユーザに把握させることが可能になる。
例示的な実施の形態における情報提供システムの全体構成を示す図である。 例示的な実施の形態における撮影装置10の構成を示すブロック図である。 例示的な実施の形態における情報提供装置30の構成を示すブロック図である。 例示的な実施の形態における情報提供システムの動作を示すフローチャートである。 太陽が撮影範囲に含まれるか否かを判定する処理の例を説明するための図である。 撮影対象および非撮影対象の類型と、判定内容の例を示す表である。 例示的な実施の形態1~4における情報提供システムの全体構成を示す図である。 例示的な実施の形態1におけるカメラの構成を示すブロック図である。 例示的な実施の形態1における情報提供サーバで実行される公共交通機関の判定処理を示すフローチャートである。 例示的な実施の形態2、3におけるカメラの構成を示すブロック図である。 例示的な実施の形態2における情報提供サーバで実行される逆光の判定処理を示すフローチャートである。 例示的な実施の形態3における情報提供サーバで実行される日の出の判定処理を示すフローチャートである。 例示的な実施の形態4におけるカメラの構成を示すブロック図である。 例示的な実施の形態4における情報提供サーバで実行される日陰の判定処理を示すフローチャートである。 他の実施の形態における情報提供装置の構成を示すブロック図である。 他の実施の形態における情報提供装置で実行される判定処理を示すフローチャートである。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 具体的な実施形態を説明する前に、まず、本開示の実施形態によって解決される従来技術の課題、および本開示の実施形態の概要を説明する。
 テレビ番組や映画などに用いられる映像を取得するために野外撮影を行う場合、事前調査を行ったとしても、野外撮影の当日に不測の事態が発生して撮影が中断されたり、撮影現場の変更を余儀なくされるケースがある。例えば、公共交通機関の運行に起因して撮影を中断せざるを得ないケースがある。具体的には、撮影中に撮影現場の上空を航空機が通過し、騒音で撮影が中断されるケース、電車やバスが付近を通過し、撮影の邪魔になって撮影が中断されるケース、航空機、電車、バスなどが周囲を通過し、撮影中の映像の背景に写ってしまうケースなどがあり得る。
 また、太陽光に起因して野外撮影に大きな影響が及ぶケースもある。具体的には、事前調査の時には明るい日向だった撮影現場が、撮影時には建物の日陰だったケースがあり得る。逆に、事前調査の時は曇天で分からなかったが、撮影当日は晴れて撮影現場が逆光の場所だったケースもあり得る。それ以外にも、様々な要因で撮影の中断や、撮影現場を急に変更することが必要になることがある。これらの課題は、前述の特許文献1や特許文献2に開示された方法では回避することができない。
 一方、公共交通機関、太陽、日陰などを意図的に撮影したいケースも想定される。例えば、航空機や電車を撮影したいケース、日の出や日没を撮影したいケース、または主要被写体が日陰の中にいるシーンを撮影したいケースもあり得る。このようなケースでは、事前調査を行ったとしても、事前調査時と撮影本番時とでは時刻や天候などが異なるため、撮影したい対象が予定通り撮影できない場合がある。撮影本番時に撮影を成功させるためには、事前の綿密な調査が必要となる。
 本発明者は、上記の課題を見出し、本開示の技術を完成させた。本開示の実施形態によれば、野外撮影をサポートする種々の情報を、撮影時または撮影前にユーザに把握させることにより、撮影の中断や撮影現場の変更を未然に防止することができる。また、他の実施形態によれば、ユーザが撮影を希望する対象が正しく撮影されるか否かをユーザが把握することができるため、事前の綿密な調査を簡便化させることができる。
 図1は、ある実施形態における情報提供システムの全体構成を示す図である。この情報提供システムは、コンピュータネットワーク20を介して相互に通信可能に接続される撮影装置10および情報提供装置30を備えている。図1には、情報提供システムの外部の要素である記録媒体40も示されている。この実施形態では、撮影装置10は、例えば撮影現場において映像データを取得するデジタルビデオカメラであり得る。情報提供装置30は、撮影現場とは異なる場所(例えば、スタジオ)に設置されるサーバコンピュータなどのコンピュータであり得る。記録媒体40には、地形および建造物の空間配置を示す情報(例えば3次元地図データ)と、公共交通機関の運行状況および太陽の軌道の少なくとも一方を示す情報とが格納されている。なお、これらの情報は、複数の記録媒体に分散して格納されていてもよい。
 図2Aは、撮影装置10の概略構成を示すブロック図である。撮影装置10は、撮影によって映像データを取得する撮像部11と、撮影装置10の位置および向きを検出する検出部19と、ネットワーク20を介して通信を行うネットワーク通信部16と、撮影装置10の全体の動作を制御する制御部14とを備えている。これらの要素は、バス15を介して相互に電気信号を伝達できるように接続されている。図2Aには示されていないが、撮影装置10は、ユーザの操作を受け付ける操作部(ユーザインターフェース)、取得した映像や各種の情報を表示する表示部(ディスプレイ)、および記録媒体といった他の要素を含み得る。
 図2Bは、情報提供装置30の概略構成を示すブロック図である。情報提供装置30は、ネットワーク20を介して情報の通信を行うネットワーク通信部36と、情報提供装置30全体の動作を制御する制御部34とを備えている。制御部34とネットワーク通信部36とは、バス35を介して相互に電気信号を伝達できるように接続されている。図2Bには示されていないが、情報提供装置30は、ユーザの操作を受け付ける操作部(ユーザインターフェース)や、ネットワーク通信部36が受信した種々のデータを記録する記録媒体といった他の要素を含んでいてもよい。
 図3は、撮影装置10および情報提供装置30の全体の動作の流れを示すフローチャートである。撮影装置10は、まず、ステップS10において、撮影装置10の位置および向きを検出する。検出は、検出部19によって行われる。撮影装置10の位置は、3次元座標(例えば緯度、経度、高度)によって特定され、例えばGPS受信機を用いて検出され得る。撮影装置10の向きは、方位および仰角によって特定され、例えば磁気コンパスおよび加速度センサを用いてそれぞれ検出され得る。検出部19は、このようなGPS受信機、磁気コンパス、および加速度センサを有する要素である。次に、ステップS11において、撮影装置10における制御部14は、検出された撮影装置10の位置および向きを示す第1の情報をネットワーク通信部16を介して送信する。この際、制御部14は、撮影装置10の画角を示す情報を第1の情報に含めて送信してもよい。画角は、撮影装置10によって撮影される空間の範囲を角度で表したものであり、レンズの焦点距離および撮像素子のサイズによって決定される。制御部14が画角を示す情報を送信するように構成されていれば、情報提供装置30に撮影装置10の撮影範囲をより正確に伝えることができる。
 続くステップS12では、情報提供装置30におけるネットワーク通信部36は、撮影装置10から送られてきた第1の情報を受信する。そして、ステップS13において、情報提供装置30における制御部34は、受信した第1の情報に基づいて、撮影装置10の周辺の地形および建造物の空間配置を示す第2の情報を記録媒体40から取得する。記録媒体40には、地形(山岳、河川、海洋、樹木などの情報を含む)および建造物の3次元空間上の配置に関する情報を含むデータベース(以下、「周辺環境データベース」と呼ぶことがある。)が格納されている。制御部34は、周辺環境データベースに含まれる情報のうち、撮影装置10の周辺における情報を第2の情報として取得する。ここで「周辺」とは、撮影条件や撮影対象にもよるが、例えば半径数十メートルから数キロメートルの範囲であり得る。
 続くステップS14において、制御部34は、第1の情報に基づいて、公共交通機関の運行状況および太陽の軌道の少なくとも一方を示す第3の情報を記録媒体40から取得する。記録媒体40には、公共交通機関(航空機、電車、バスなど)の運行状況および太陽の軌道の少なくとも一方に関する情報を含むデータベースが格納されている。制御部34は、このデータベースに含まれる情報のうち、撮影装置10の位置における撮影に影響を及ぼす可能性のある公共交通機関および太陽の少なくとも一方に関する情報を第3の情報として取得する。第3の情報は、撮影装置10が撮影を予定している対象(以下、「撮影対象」と呼ぶことがある。)および撮影装置10が撮影の回避を予定している対象(以下、「非撮影対象」と呼ぶことがある。)に依存する。例えば、公共交通機関の撮影を回避する用途では、公共交通機関が「非撮影対象」となり、公共交通機関の運行状況を示す情報が第3の情報として取得される。一方、日の出を撮影する用途では、太陽が「撮影対象」となり、太陽の軌道を示す情報が第3の情報として取得される。撮影対象および非撮影対象は、実施形態によって異なり、種々の態様が可能である。撮影対象および非撮影対象の類型については後述する。
 続いて、ステップS15において、制御部34は、取得した第1から第3の情報に基づいて、撮影対象または非撮影対象が、撮影範囲内に含まれるか否かを判定する。ここで、「撮影範囲」とは、撮影装置10が撮影によって取得する映像に表示される3次元空間上の範囲を意味する。例えば、太陽が撮影装置10の画角によって規定される範囲の外側に位置するとき、その太陽は撮影範囲の外側に位置することになる。また、太陽が画角によって規定される範囲の内側に位置する場合でも、山や建造物などの物体に遮られることによって映像に表示されない場合には、その太陽は撮影範囲外に位置することになる。以下の説明では、撮影範囲内に物体が位置することを、「カメラに写る」と表現することがある。
 制御部34は、例えば非撮影対象が公共交通機関である場合には、公共交通機関が撮影範囲内に含まれるか否かを判定する。また、撮影対象が日の出である場合には、太陽が撮影範囲内に含まれるか否かを判定する。このように、制御部34は、撮影対象および非撮影対象に応じた判定処理を行う。これらの判定は、第1から第3の情報に基づき、撮影装置10の位置および向き、撮影装置10の周辺の地形および建造物の空間配置、および公共交通機関および/または太陽の動きを総合的に判断して行われる。例えば、制御部34は、撮影装置10の位置および向きに基づいて撮影装置10の画角によって規定される範囲を特定し、その範囲内に含まれる山、樹木、建造物と、撮影対象(または非撮影対象)との位置関係から、撮影対象(または非撮影対象)が撮影されるか否かを判定する。
 図4は、この判定処理の例を説明するための概念図である。ここでは、撮影対象が太陽50である場合を想定する。制御部34は、地球55の中心を原点としてX軸、Y軸、およびZ軸によって規定される3次元座標系における撮影装置10の座標(x1,y1,z1)、太陽50の座標(x2,y2,z2)、および撮影装置10の周辺の山、樹木、建造物など(不図示)の座標を特定する。ここで、撮影装置10の座標は、緯度、経度、高度の情報から変換することによって得られる。制御部34は、撮影装置10の向きを示すベクトル53と画角の情報とから、撮影範囲に含まれる可能性のある3次元空間上の範囲(図4における4本の破線で囲まれる範囲)を特定する。その上で、制御部34は、地形や建造物のデータおよび太陽の位置のデータを参照して、太陽50が山、樹木、建造物などに遮られることなく撮影範囲に含まれるか否かを判定する。なお、この判定処理は一例であり、制御部34は、他の方法によって判定を行ってもよい。
 制御部34は、続くステップS16において、判定結果を示す情報をネットワーク通信部36を介して撮影装置10に送信する。すると、ステップS17において、撮影装置10は、ネットワーク通信部16によって判定結果を示す情報を受信し、制御部14は、判定結果を表示部に表示させる。
 以上の動作により、撮影装置10のユーザは、撮影を希望する「撮影対象」または撮影を希望しない「非撮影対象」が撮影範囲内に含まれるか否か(撮影されるか否か)を知ることができる。
 情報提供装置30における制御部34は、上記の判定に限らず、撮影対象または非撮影対象の種類に応じて種々の判定を行い、その結果を撮影装置10に通知するように構成されていてもよい。以下、撮影対象および非撮影対象の典型的な類型と、判定内容の例とを説明する。
 図5は、「撮影対象」および「非撮影対象」の典型例と、それぞれの例における判定内容の例を示す表である。例1は、非撮影対象が公共交通機関(航空機、列車、バス等)である場合の例である。例2は、逆に、撮影対象が公共交通機関である場合の例である。例1、2における判定内容は、例えば、(i)公共交通機関が撮影範囲に含まれるか否か、(ii)公共交通機関が撮影範囲に含まれる時刻または含まれるまでの時間、(iii)公共交通機関が付近を通過するか否か、(iv)公共交通機関が付近を通過する時刻または通過するまでの時間、(v)公共交通機関が撮影範囲に含まれるようになる撮影装置の向き、などが考えられる。制御部34が、これらの判定を行い、判定結果を撮影装置10に通知することにより、ユーザは、公共交通機関の撮影を回避するための措置、あるいは公共交通機関を意図的に撮影するための措置を講じることができる。
 例3は、非撮影対象が太陽である場合、すなわち、逆光の撮影を回避する場合の例である。例4は、逆に、撮影対象が太陽である場合、例えば日の出、日没、日食などを意図的に撮影する場合の例である。例3、4における判定内容は、例えば、(i)太陽が撮影範囲に含まれるか否か、(ii)太陽が撮影範囲に含まれる時刻または含まれるまでの時間、(iii)太陽が撮影範囲に含まれるようになる撮影装置の向き、などが考えられる。制御部34がこれらの判定を行い、判定結果を撮影装置10に通知することにより、ユーザは、逆光の撮影を回避するための措置、あるいは日の出や日没を意図的に撮影するための措置を講じることができる。
 例5は、非撮影対象が日陰である場合の例である。例6は、逆に、撮影対象が日陰である場合の例である。例5、6における判定内容は、例えば、(i)日陰が撮影範囲に含まれるか否か、(ii)主要被写体が日陰の中に入るか否か、(iii)主要被写体が日陰の中に入る時刻または入るまでの時間、(iv)主要被写体が日陰の中に入るようになる撮影装置の向き、(v)日陰の画面全体の中での割合、などが考えられる。制御部34がこれらの判定を行い、判定結果を撮影装置10に通知することにより、ユーザは、日陰の撮影を回避するための措置、あるいは日陰を意図的に撮影するための措置を講じることができる。
 例7は、撮影対象および非撮影対象の両方が設定されている場合の例である。この例では、撮影対象として公共交通機関が設定され、非撮影対象として太陽が設定されている。例7における判定内容は、例2および例3における判定内容の任意の組み合わせであり得る。制御部34がこれらの判定を行い、判定結果を撮影装置10に通知することにより、ユーザは、逆光を回避しつつ、公共交通機関を撮影するための対策を講じることができる。このように、撮影対象および被撮影対象の両方が設定されていてもよい。例7では、公共交通機関を意図的に撮影し、かつ逆光を回避する場合を想定しているが、撮影対象および非撮影対象の組み合わせは、他の組み合わせであってもよい。
 以上のように、本開示の情報提供システムによれば、撮影装置の位置および向き、地形、建造物、公共交通機関または太陽に関する情報に基づいて、撮影範囲内に撮影対象または非撮影対象が含まれるか否かをはじめとする種々の判定が行われ、判定結果が撮影装置に通知される。これにより、例えば、撮影開始前に航空機、電車、バスなどの公共交通機関がカメラの撮影範囲内を何分後に通過するか、といった情報をユーザに提供することができる。このため、撮影の中断を余儀なくされるといった事態を未然に防止することができ、効率のよい撮影作業が可能になる。また、撮影が予定されている日時に現場が日陰または逆光になるかといった情報もユーザに事前に提供することができる。このため、撮影当日に撮影現場を変更しなければならないといった事態を未然に防止でき、効率のよい撮影作業が可能になる。さらに、意図的に公共交通機関や日の出などを撮影したい場合に、適切な撮影時刻や撮影装置の向きを事前に把握することができるため、事前準備を簡略化することができる。
 以下、本開示のより具体的な実施の形態を説明する。
(実施の形態1)
 まず、第1の実施の形態を説明する。本実施の形態は、公共交通機関が撮影装置に映ることを未然に防止するためにユーザに種々の情報を提供する情報提供システムに関する。本実施の形態では、「非撮影対象」である公共交通機関に関する種々の情報がユーザに提供される。
 [1-1.構成]
 図6は、本実施の形態における情報提供システムの全体構成を示す図である。この情報提供システムは、ネットワーク210を介して相互に通信可能なデジタルビデオカメラ(以下、単に「カメラ」と称する。)100と情報提供サーバ220とを備えている。ネットワーク210には、地図データベース230、建造物データベース240、公共交通機関データベース250を格納する複数の記録媒体も接続されている。
 図6のネットワーク210は、例えばインターネットなどの公衆網または専用回線であり、カメラ100と情報提供サーバ220とを接続する。カメラ100は、ネットワーク210を介して、情報提供サーバ220にカメラ100の位置、向き、画角に関する情報を送信することができる。情報提供サーバ220は、ネットワーク210を介して、地図データベース230、建造物データベース240、および公共交通機関データベース250にアクセスすることができる。
 情報提供サーバ220は、上記の説明における情報提供装置30に対応するサーバコンピュータ(情報処理装置)である。情報提供サーバ220の構成は、図2Bに示される構成と同様である。情報提供サーバ220は、カメラ100の位置、向き、および画角の情報を取得し、非撮影対象である公共交通機関がカメラ100の撮影範囲に含まれるか否か(カメラ100に写るか否か)を判定して判定結果をカメラ100に通知する。この際、情報提供サーバ220は、地図データベース230、建造物データベース240、および公共交通機関データベース250から必要な情報を取得して上記の判定を行う。
 地図データベース230は、任意の地点における地図および地形のデータを提供する。建造物データベース240は、建造物の形や大きさのデータであり、3次元座標上の空間配置を示すデータを提供する。公共交通機関データベース250は、電車、バス、航空機などの公共交通機関が現在どの位置を運行しているか等のリアルタイムの運行状況のデータを提供する。なお、地図データベース230および建造物データベース240は、3次元地図のデータベースとして統合されていてもよい。
 図7は、本実施の形態におけるカメラ100の構成を表すブロック図である。カメラ100は、撮像部110、コーデック120、画像表示部130、制御部140、バス150、ネットワーク部160、記録媒体170、位置検出器180、方位検出器182、仰角検出器184、画角検出部186を含む。撮像部110は、レンズなどの光学系と、CCD(charge-coupled device)またはCMOS(complementary metal-oxide-semiconductor)センサなどの撮像素子を含む。撮像部110は、コーデック120、画像表示部130、制御部140、および画角検出部186に接続される。コーデック120、画像表示部130、制御部140、ネットワーク通信部160、記録媒体170、位置検出器180、方位検出器182、仰角検出器184、画角検出部186は、それぞれバス150に接続され、相互に電気信号を伝達することができる。
 コーデック120は、撮像部110によって生成された映像信号を、圧縮・伸長して出力する回路である。画像表示部130は、取得した映像および各種の設定情報などを表示することができるディスプレイである。制御部140は、撮影装置100全体の動作を制御するCPU(Central Processing Unit)やマイコン(マイクロコンピュータ)などのプロセッサである。制御部140は、制御プログラムを実行することにより、各部を制御する。記録媒体170は、DRAMなどのメモリであり、制御部140が実行する制御プログラムや処理過程で発生する種々のデータを格納する。なお、制御部140は、集積回路などのハードウェアとソフトウェア(プログラム)との組み合わせで実現されていてもよいし、ハードウェアのみで実現されていてもよい。
 ネットワーク通信部160は、ネットワーク210を介して情報の送受信が可能なネットワークインターフェースである。画角検出部186は、撮像部110におけるズーム値や撮像素子のサイズに基づいて画角を特定する検出機構である。位置検出器180は、カメラ100の位置を検出する検出器であり、例えばGPS信号を受信する受信機によって実現され得る。方位検出器182は、カメラ100の方位を検出する検出器であり、例えば磁気コンパスによって実現され得る。仰角検出器184は、カメラ100の仰角を検出する検出器であり、例えば加速度センサによって実現され得る。
 カメラ100は、上記の要素に加えて、図示されていない他の構成要素を含み得る。例えば、ユーザの操作を受け付ける操作パネル、各部に電源を供給する電源回路、手振れ補正機構、マイク、音声処理回路、スピーカーなどを含み得る。カメラ100の構成は、以下の動作が実現できる限り、どのような構成であってもよい。
 [1-2.動作]
 以上のように構成されたカメラ100の動作を説明する。撮像部110で取得された映像信号は、コーデック120で圧縮される。圧縮された映像データは、バス150を介して記録媒体170へ転送され、映像ファイルとして記録される。制御部140は、バス150を経由した映像データの転送制御や、映像データをファイルとして記録する動作の制御などを行う。以上のような動作を経て、カメラ100で映像が記録される。なお、音声については本実施の形態の技術との関連性が低いため説明を省略する。音声については、公知の技術を利用することができる。
 カメラ100は、位置検出器180を用いて、例えばGPS信号を受信することによってカメラの現在位置を特定することができる。また、カメラ100は方位検出器182を用いて、カメラの向いている方位(水平方向の角度)を特定することができる。さらに、カメラ100は、仰角検出器184を用いて、カメラ100が向いている方向の仰角(垂直方向の角度)を特定することができる。また、カメラ100は、画角検出部186を用いて、撮像部110のレンズやセンサなどの光学系から、ズーム値や光学数値を検出し、撮像される画角を特定することができる。
 ネットワーク通信部160は、有線または無線でカメラ100をネットワーク210に接続する。カメラ100は、ネットワーク通信部160を通じて、カメラ100の各検出器が検出したデータをネットワーク210に送信することが可能である。
 カメラ100における制御部140は、位置検出器180と方位検出器182と仰角検出器184と画角検出部186とがそれぞれ検出したデータを、ネットワーク通信部160を介して、ネットワーク210に送信する。カメラ100から送信されたデータは、ネットワーク210を介して情報提供サーバ220へ伝達される。
 情報提供サーバ220は、まず図7に示す位置検出器180が検出した位置情報に基づいて、図6に示す地図データベース230にアクセスする。そして、カメラ100が位置する近辺の地図データを取得する。例えば、カメラ100の位置から半径数百メートルから数キロメートルの範囲内の地図データを取得する。
 次に、情報提供サーバ220は、取得した地図データと、図7に示す方位検出器182が検出した方位情報と、仰角検出器184が検出した仰角情報と、画角検出部186が検出した画角情報とに基づいて、カメラ100に写る(撮影範囲に含まれる)可能性のある建造物を特定する。そして、情報提供サーバ220は、カメラ100に写る可能性のある建造物の3次元空間上の配置に関するデータを、建造物データベース240から取得する。この結果、情報提供サーバ220は、カメラ100に写る可能性のある建造物の大きさや位置関係を把握することが可能となる。これにより、映像の画角の範囲内にビルや線路、道路、空などが写ることが分かるため、前述の地図データと合わせて、どの公共交通機関が映像に写るかを特定することができる。
 次に、情報提供サーバ220は、特定した公共交通機関に関して、公共交通機関データベース250にアクセスする。そして、電車、バス、航空機などのリアルタイムの運行位置に関する情報を取得する。これにより、特定した公共交通機関の現在の位置が分かるため、現在のカメラ100の画角内を、何分後に電車やバス、航空機などが通過するかを事前に把握することができる。
 情報提供サーバ220は、検出した公共交通機関の通過に関する情報を、ネットワーク210を介して、カメラ100へ送信する。カメラ100における制御部140は、ネットワーク通信部160を介して、当該情報を取得する。制御部140は、受信した情報に基づいて、画像表示部130に当該公共交通機関の通過に関する情報を表示する。これにより、カメラ100のユーザに、電車、バス、航空機などが映像に写ることを事前に通知することが可能となる。
 次に、図6に示す情報提供サーバ220で行なわれる処理を、フローチャートを参照しながら説明する。
 図8は、情報提供サーバ220によって実行される公共交通機関に関する判定処理を表すフローチャートである。情報提供サーバ220は、ステップS400において、ネットワーク210を介してカメラ100と通信し、カメラ100の現在位置、方位、仰角、画角のデータを得る。これらのデータは、図4に示す例における第1の情報に相当する。次に、情報提供サーバ220は、ステップS410において、ネットワーク210を介して地図データベース230にアクセスし、カメラ100の現在位置の情報に基づいて、カメラ100の周辺の地図データを得る。次に、情報提供サーバ220は、ステップS420において、カメラの現在位置、方位、仰角、画角、および、地図データベースから獲得した周辺の地図データに基づいて、カメラに写る建造物を特定する。次に、情報提供サーバ220は、ステップS430において、建造物データベース240にアクセスし、ステップS420で特定した建造物のデータを得る。これらの地図データおよび建造物データは、図4に示す例における第2の情報に相当する。次に、情報提供サーバ220は、ステップS440において、カメラの現在位置、方位、仰角、画角、地図データ、および、建造物データに基づいて、カメラに写る公共交通機関を特定する。次に、情報提供サーバ220は、ステップS450において、公共交通機関データベース250にアクセスし、ステップS440で特定した公共交通機関の現在の運行状況のデータを得る。この運行状況のデータには、公共交通機関の現在の運行位置が含まれている。このデータは、図4に示す例における第3の情報に相当する。次に、情報提供サーバ220は、ステップS460において、運行状況のデータに基づいて、公共交通機関がカメラに写る時刻や、公共交通機関がカメラに写る位置を特定する。最後に、情報提供サーバ220は、ステップS470において、ネットワーク210を介してカメラ100と通信し、ステップS460で特定した情報をカメラに通知する。以上の処理が、図6に示す情報提供サーバ220の制御部で実施される。
 なお、図7の制御部140が公共交通機関の通過に関する情報を画像表示部130に表示させる方法は、単純な警告表示でもよいが、現在の映像に重ね合わせて、具体的な位置を画面上に表示したり、通過までの時間を表示したりしてもよい。
 [1-3.効果等]
 以上のように、本実施の形態では、情報提供サーバ220は、カメラ100の現在の位置、方位、仰角、画角の情報と、カメラ100の周辺の地図情報および建築物の情報とを利用することにより、カメラ100に写る可能性のある公共交通機関を特定する。さらに、公共交通機関の運行状況を参照することにより、現在のカメラ100の画角内を、電車やバス、航空機などが何分後に通過するかを判定し、判定結果を示す情報をカメラ100に提供することが可能となる。これにより、ユーザは、撮影中のカメラ100の画角内にこれらの公共交通機関が何分後に通過するかを把握することができるため、途中で撮影が中断されるといった事態を回避することができる。
 本実施の形態は、図5における例1に対応している。したがって、情報提供サーバ220は、上記の判定動作の他、図5に示す他の判定を行い、その結果をカメラ100に通知してもよい。また、公共交通機関が撮影範囲に含まれるか否かをまず判定し、その判定結果に応じてさらに他の判定を行ってもよい。例えば、公共交通機関が撮影範囲に含まれると判定した場合には、その結果をカメラ100に通知し、含まれないと判定した場合には、その公共交通機関が撮影範囲に含まれるまでの時間をカメラ100に通知してもよい。あるいは、その公共交通機関が撮影範囲に含まれるようになる時刻およびカメラ100の向きに関する情報をカメラ100に通知してもよい。このような多様な情報がユーザに提供されれば、さらに効率的な撮影が可能になる。
 なお、本実施の形態における上記の機能は、意図的に公共交通機関が通過するシーンを撮影する用途にも利用することができる。その場合でも、カメラ100および情報提供サーバ220の動作は上記と同様である。
(実施の形態2)
 次に、第2の実施の形態を説明する。本実施の形態は、野外撮影時の太陽光に関し、特に被写体の背後から太陽光が差す逆光を事前に検出してユーザに情報を提供する情報提供システムに関する。本実施の形態では、「非撮影対象」である太陽光に関する種々の情報がユーザに提供される。
 [2-1.構成]
 本実施の形態における情報提供システムの全体構成は、図6に示す実施の形態1における全体構成と同様である。ただし、本実施の形態では、公共交通機関データベース250の代わりに、太陽光の軌道に関するデータベースを利用する。太陽光の軌道に関するデータベースは、情報提供サーバ220自身が有していてもよい。情報提供サーバ220の物理構成は、実施の形態1における構成と同一であるため、説明を省略する。
 図9は、本実施の形態におけるカメラ200の構成を示すブロック図である。本実施の形態のカメラ200は、実施の形態1における構成要素に加えて、撮影日時をユーザが指定するための操作部190(ユーザインターフェース)を有している。操作部190は、例えば操作ボタンおよび画像表示部130に設けられたタッチパネルによって実現され得る。操作部190を操作することにより、ユーザは、撮影が予定されている日時を指定することができる。操作部190以外の構成要素については前述の実施の形態1におけるものと同様であるため説明を省略する。
 [2-2.動作]
 本実施の形態におけるカメラ200および情報提供サーバ220の動作を説明する。なお、映像を撮影して記録する動作については、前述の実施の形態1における動作と同様であるため、説明を省略する。
 カメラ200における制御部140は、位置検出器180と方位検出器182と仰角検出器184と画角検出部186とがそれぞれ検出したデータを、ネットワーク通信部160を介して、ネットワーク210へ送信する。カメラ200から送信されたデータは、ネットワーク210を介して情報提供サーバ220へ伝達される。
 本実施の形態では、情報提供サーバ220は、カメラ200の位置、向き、画角の情報に加えて、指定日時情報を使用する。この指定日時情報は、図9のカメラ200のユーザが設定する日時である。実際に撮影を行う本番の日時をユーザが指定することにより、情報提供サーバ220は、指定された撮影日時の太陽光の様子を調べる。制御部140は、ネットワーク通信部160を介して、指定日時情報をネットワーク210へ送信する。このとき、カメラ200から送信された指定日時情報が、ネットワーク210を介して情報提供サーバ220へ伝達される。
 情報提供サーバ220は、まず図9に示す位置検出器180が検出した位置情報に基づいて、図6に示す地図データベース230にアクセスする。そして、カメラ200が位置する近辺の地図データを取得する。例えば、カメラ200の位置から半径数百メートルから数キロメートルの範囲内の地図データを取得する。
 次に、情報提供サーバ220は、取得した地図データと、方位検出器182が検出した方位情報と、仰角検出器184が検出した仰角情報と、画角検出部186が検出した画角情報とに基づいて、カメラ200に写る可能性のある建造物を特定する。そして、情報提供サーバ220は、カメラ200に写る可能性のある建造物の3次元空間上の配置に関するデータを、建造物データベース240から取得する。この結果、情報提供サーバ220は、カメラ200が撮影する映像の周囲に存在する建造物の高さや、カメラとの位置関係を把握することが可能となる。
 次に、情報提供サーバ220は、位置検出器180が検出したカメラの位置情報、および、前述のユーザが設定した指定日時情報を用いて、太陽の位置を求める。位置情報と日時情報が分かれば、太陽の方位や仰角を特定することができる。
 情報提供サーバ220は、特定した太陽の方位と仰角の情報を、カメラ200の方位と仰角と画角のデータと比較し、カメラの画角内に太陽が入るかを判定する。もし、カメラの画角内に太陽が位置する場合、逆光になる可能性がある。ここで、本実施の形態ではさらに、情報提供サーバ220が周囲の建造物の高さや位置関係を把握しているため、建造物が太陽を遮断して逆光にならないケースも判断することができる。例えば、撮影する映像の背景には太陽が写る可能性があっても、実際には高いビルなどの建造物が存在して映像の背景に太陽が写らず、逆光にならない場合もある。情報提供サーバ220は、そのような場合でも正確に太陽が撮影範囲内に含まれるか否かを判断することができる。
 情報提供サーバ220は、これらの判定結果を、ネットワーク210を介してカメラ200に逆光情報として伝達する。図9に示すカメラ200における制御部140は、ネットワーク通信部160を介して、逆光情報を取得する。制御部140は、受信した逆光情報に基づいて、画像表示部130に逆光情報を表示させることで、カメラ200のユーザに、指定日時に太陽が写って逆光になるかを通知することが可能となる。
 次に、本実施の形態の情報提供サーバ220で行なわれる処理を、フローチャートを参照しながら説明する。図10は、情報提供サーバ220で実行される逆光の判定処理を示すフローチャートである。情報提供サーバ220は、ステップS500において、ネットワーク210を介してカメラ200と通信し、カメラ200の現在位置、方位、仰角、画角、および指定日時のデータを得る。次に、情報提供サーバ220は、ステップS510において、ネットワーク210を介して地図データベース230にアクセスし、カメラの現在位置の情報に基づいて、カメラ周辺の地図データを得る。次に情報提供サーバ220は、ステップS520において、カメラの現在位置、方位、仰角、画角、および地図データベース230から獲得した周辺の地図データに基づいて、カメラに写る建造物を特定する。次に情報提供サーバ220は、ステップS530において、建造物データベース240にアクセスし、ステップS520で特定した建造物のデータを得る。次に情報提供サーバ220は、ステップS540において、カメラの現在位置、および、指定日時の情報から、太陽の位置を特定する。次に情報提供サーバ220は、ステップS550において、カメラの現在位置、方位、仰角、画角、および、ステップS540で特定した太陽の位置に基づいて、カメラの画角内に太陽が写るかを特定する。次に情報提供サーバ220は、ステップS560において、ステップS530で得た建造物のデータも参照し、カメラの画角内に太陽が写るかを特定する。最後に情報提供サーバ220はステップS570において、ネットワーク210を介してカメラと通信し、ステップS560で特定した情報をカメラに通知する。
 なお、図9の制御部140が逆光に関する情報を画像表示部130に表示する方法は、単純な逆光に関する警告表示でもよいが、現在の映像に重ね合わせて、具体的な太陽の予測位置を画面上に表示してもよい。
 [2-3.効果等]
 以上のように、本実施の形態では、情報提供サーバ220は、カメラ200の位置、方位、仰角、画角の他に、周辺の建造物および太陽の軌道の情報も利用することで、ユーザが指定した日時に撮影現場が逆光になるかを正確に判定し、判定結果を示す情報をカメラ200に提供する。これにより、ユーザは、撮影本番に逆光が撮影されてしまうという事態を未然に回避することができる。
 本実施の形態は、図5における例3に対応している。したがって、情報提供サーバ220は、上記の判定動作の他、図5に示す他の判定を行い、その結果をカメラ200に通知してもよい。例えば、太陽が撮影範囲に含まれる時刻や、含まれるようになるまでの時間、方向を通知してもよい。指定された時刻には撮影範囲内に太陽が写らない場合でも、時間の経過とともに太陽が撮影範囲内に入るケースや、撮影範囲のすぐ外側に太陽が位置するケースでは、撮影の妨げになる恐れがある。そのようなケースを未然に回避できるように、上記のような時間の情報をカメラ200に表示させることは、ユーザに注意を喚起する上で有効である。
(実施の形態3)
 続いて第3の実施の形態を説明する。本実施の形態は、野外撮影で意図的に太陽を撮影したい場合に、ユーザに太陽を撮影するための情報を提供する情報提供システムに関する。本実施の形態では、「撮影対象」である太陽光に関する種々の情報がユーザに提供される。本実施の形態は、例えば、日の出のシーン、日没のシーン、または日食を撮影する場合などに有効である。以下では日の出のシーンの撮影をサポートする場合を想定する。
 [3-1.構成]
 本実施の形態における情報提供システムの全体構成は、実施の形態2における全体構成と同一である。情報提供サーバ220およびカメラ200の構成要素についても実施の形態2におけるものと同一である。以下、実施の形態2と共通する事項についての説明は省略し、異なる点を中心に説明する。
 [3-2.動作]
 本実施の形態におけるカメラ200および情報提供サーバ220の動作を説明する。
 カメラ200は、位置情報、方位情報、仰角情報、画角情報、および、ユーザが設定した指定日時情報をネットワーク210に送信する。具体的には、カメラ200における制御部140は、位置検出器180と方位検出器182と仰角検出器184と画角検出部186とがそれぞれ検出したデータ、およびユーザが設定した指定日時情報を、ネットワーク通信部160を介してネットワーク210へ送信する。カメラ200から送信されたデータおよび指定日時情報は、ネットワーク210を介して情報提供サーバ220へ伝達される。
 情報提供サーバ220は、まず位置検出器180が検出した位置情報に基づいて、図6に示す地図データベース230へアクセスする。そしてカメラ200が位置する近辺の地図データを取得する。この地図データには、周囲の地形、特に日の出に影響する周辺の地形や標高データが含まれる。
 次に情報提供サーバ220は、取得した地図データと、方位検出器182が検出した方位情報と、仰角検出器184が検出した仰角情報と、画角検出部186が検出した画角情報に基づいて、カメラ200に写る可能性のある建造物を特定する。そして、情報提供サーバ220は、カメラ200に写る可能性のある建造物の3次元空間上の配置に関するデータを、建造物データベース240から取得する。この結果、情報提供サーバ220は、カメラ200が撮影する映像の周囲に存在する建造物の高さや、カメラとの位置関係を把握することが可能となる。また、地図データベース230から取得した地図データには周囲の地形や標高データも含まれるため、カメラ200が撮影する映像の周囲の山などの高さや、カメラとの位置関係も把握することが可能となる。
 次に情報提供サーバ220は、位置検出器180が検出したカメラ200の位置情報、および前述のユーザが設定した指定日時情報を用いて、太陽の位置を求める。位置情報と日時情報が分かれば、太陽の方位や仰角を特定することができる。ここでは特に、日の出の撮影をサポートするため、ユーザが設定した指定日時情報に最も近い時刻で、太陽が地表に現れる時刻、方位、仰角を求める。
 情報提供サーバ220は、特定した太陽の方位と仰角の情報を、カメラ200の方位と仰角と画角のデータと比較し、カメラ200の画角内に日の出が含まれるかを判定する。このとき、情報提供サーバ220は、カメラの周囲の建造物や山などの高さおよび位置関係を把握しているため、カメラ200に写る建造物または山の背後から日の出が出現するかを正確に判断することができる。さらには、現在のカメラの方位、仰角、画角に対して、予想される日の出がどの程度ずれるかを示す差分量も検出することができる。
 情報提供サーバ220は、これらの判断結果を、日の出情報として、ネットワーク210を介してカメラ200に伝達する。具体的には、ユーザが設定した指定日時情報に最も近い日の出の時刻情報、現在のカメラの撮影範囲内のどの位置に日の出が出現するかを示す位置情報、もしくは、現在のカメラの方位、仰角、画角に対して、予想される日の出の出現位置との差分の情報、などを伝達する。
 カメラ200の制御部140は、ネットワーク通信部160を介して、これらの日の出情報を取得する。制御部140は、受信した日の出情報のうち、日の出の時刻情報に基づいて、予想される日の出の時刻を画像表示部130に表示する。これにより、カメラ200のユーザに、ユーザが設定した指定日時情報に最も近い日の出の出現時刻を知らせることが可能となる。
 また、制御部140は受信した日の出情報のうち、日の出の位置に関する情報に基づいて、予想される日の出の位置を画像表示部130に表示することもできる。これにより、カメラ200のユーザに、カメラの撮影範囲内で日の出が写る位置を知らせることが可能となる。
 また、制御部140は、受信した日の出情報のうち、日の出の出現位置との差分の情報に基づいて、画像表示部130に、現在の方位、仰角、画角に対する差分量を表示したり、予想される出現方向などを表示したりすることで、カメラ200のユーザに、日の出が写るためにカメラを動かすべき方位、仰角、画角などの情報を知らせることが可能となる。
 次に、本実施の形態の情報提供サーバ220で行なわれる処理を、フローチャートを参照しながら説明する。図11は、情報提供サーバ220で実行される日の出の判定処理を示すフローチャートである。図6において、情報提供サーバ220は、ステップS600において、ネットワーク210を介してカメラと通信し、カメラの現在位置、方位、仰角、画角、および、指定日時のデータを得る。次に情報提供サーバ220は、ステップS610において、ネットワーク210を介して地図データベース230にアクセスし、カメラ200の現在位置の情報に基づいて、カメラ200の周辺の地図データを得る。次に情報提供サーバ220は、ステップS620において、カメラの現在位置、方位、仰角、画角、および、地図データベース230から獲得した周辺の地図データに基づいて、カメラ200に写る建造物を特定する。次に情報提供サーバ220は、ステップS630において、建造物データベース230にアクセスし、ステップS620で特定した建造物のデータを得る。次に情報提供サーバ220は、ステップS640において、カメラ200の現在位置、および、指定日時の情報に基づいて、指定日時に最も近い時刻で、太陽が地表に現れる時刻、方位、仰角を特定する。次に情報提供サーバ220は、ステップS650において、カメラ200の現在位置、方位、仰角、画角、およびステップS640で特定した日の出の方位および仰角に基づいて、カメラ200の画角内に日の出が写るかを特定する。また、カメラ200の現在の方位、仰角、画角と、日の出が写る方位、仰角、画角との差分量を特定する。さらに、日の出が写る時刻を特定する。次に情報提供サーバ220は、ステップS660において、ステップS610で得た地図データの地形データおよびステップS630で得た建造物のデータも参照し、カメラ200の画角内に日の出が写るか否かを特定する。また、カメラ200の現在の方位、仰角、画角と、日の出が写る方位、仰角、画角との差分量を特定する。さらに、日の出が写る時刻を特定する。最後に情報提供サーバ220は、ステップS670において、ネットワーク210を介してカメラと通信し、ステップS660で特定した情報をカメラに通知する。
 [3-3.効果等]
 以上のように、本実施の形態では、情報提供サーバ220は、日の出の撮影など、意図的に太陽を撮影したい場合に、撮影をサポートする情報をユーザに提供する。これにより、ユーザは日の出を容易に撮影することができる。
(実施の形態4)
 次に、第4の実施の形態を説明する。本実施の形態は、野外撮影時の太陽光に関し、特に撮影が予定されている日時に、撮影現場が日陰になるかを事前に検出してユーザに情報を提供する情報提要システムに関する。本実施の形態では、「非撮影対象」である日陰に関する種々の情報がユーザに提供される。
 [4-1.構成]
 本実施の形態における情報提供システムの全体構成は、実施の形態2におけるものと同一である。情報提供サーバ220の構成要素についても実施の形態2におけるものと同一である。以下、実施の形態2と共通する事項についての説明は省略し、異なる点を中心に説明する。
 図12は、本実施の形態におけるカメラ300の構成を示すブロック図である。カメラ300は、撮像部310、コーデック320、画像表示部330、制御部340、バス350、ネットワーク通信部360、記録媒体370、位置検出器380、方位検出器382、仰角検出器384、画角検出部386、距離検出器388、および操作部390を含む。
 カメラ300は、実施の形態2で説明した図9のカメラ200とほぼ同じであるが、カメラ300には、距離検出器388が追加されている点が異なる。他の要素については、実施の形態1における対応する要素と同じであるため、説明を省略する。映像を撮影して記録する動作についても、図1のカメラ100における動作と同様であるため、ここでは説明を省略する。
 距離検出器388は、例えば測距専用カメラであり、カメラ300から被写体までの距離を検出する。測距専用カメラは、特定の発光パターンを有する光源から被写体に光を照射し、その被写体からの反射光が検出されるまでの時間を測定することによって測距を行う。なお、ロボットの分野等で利用されているレーザーレンジファインダのようにレーザーを使った測距方式や、超音波やミリ波を利用した測距方式など、距離を測定する方法には様々な方式がある。距離の検出方法は、特定の方法に限定されない。
 本明細書において、距離検出器388によって距離が検出される被写体を、「主要被写体」と呼ぶことがある。主要被写体は、ユーザが手動で、あるいはカメラ300が自動で合焦させた被写体を指す。典型的には、撮影範囲の中心付近の人物、動植物、もしくは物体、または自動検出された人物の顔もしくは目立つ物体が主要被写体となる。
 [4-2.動作]
 本実施の形態におけるカメラ300および情報提供サーバ220の動作を説明する。
 カメラ300における制御部340は、位置検出器380と方位検出器382と仰角検出器384と画角検出部386と距離検出器388とがそれぞれ検出した位置、方位、仰角、画角、および距離を示すデータを、ネットワーク通信部360を介して、ネットワーク210に送信する。カメラ300から送信されたデータは、ネットワーク210を介して情報提供サーバ220へ伝達される。
 本実施の形態では、実施の形態2、3と同様、指定日時情報が使用される。この指定日時情報は図12に示すカメラ300のユーザによって設定される日時である。実際に撮影を行う本番の日時などをユーザが指定することにより、情報提供サーバ220は、撮影当日の予定時刻における太陽光の様子を調べる。制御部340は、ネットワーク通信部360を介して、指定日時情報をネットワーク210へ送信する。このとき図2では、カメラ100から送信された指定日時情報が、ネットワーク210を介して情報提供サーバ220へ伝達される。
 情報提供サーバ220は、まず位置検出器380が検出した位置情報に基づいて、図2の地図データベース230へアクセスする。そしてカメラ300が位置する近辺の地図データを取得する。例えば、カメラ300の位置から半径数百メートルから数キロメートルの範囲内の地図データを取得する。
 次に情報提供サーバ220は、取得した地図データと、方位検出器382が検出した方位情報と、仰角検出器384が検出した仰角情報と、画角検出部386が検出した画角情報とに基づいて、カメラ300に写る可能性のある建造物や、撮影に影響する周囲の建造物を特定する。そして、情報提供サーバ220は、これらの建造物に関するデータを、建造物データベース240から取得する。この結果、情報提供サーバ220は、カメラ100が撮影する映像の周囲に存在する建造物の高さや、建造物とカメラ300との位置関係を把握することが可能となる。
 次に情報提供サーバ220は、位置検出器380が検出したカメラ300の位置情報、および前述のユーザが設定した指定日時情報を用いて、太陽の位置を求める。位置情報と日時情報とを用いれば、太陽の方位や仰角を特定することができる。
 情報提供サーバ220は、特定した太陽の方位および仰角の情報と、前述の周囲の建造物の形状や高さの情報とから、カメラ300の周囲で日陰になる範囲を特定する。そして、距離検出器388が検出した距離情報を参照し、カメラ300の主要被写体が日陰に入るか否かを判定する。
 情報提供サーバ220は、これらの判定結果を、ネットワーク210を介して、カメラ300に伝達する。カメラ300の制御部340は、ネットワーク通信部360を介して、この判定結果を取得する。制御部340は、受信した判断結果に基づいて、画像表示部330に判定結果を表示することで、カメラ300のユーザに、指定日時に主要被写体が日陰に入るかを通知することが可能となる。
 続いて、情報提供サーバ220で行なわれる処理を、フローチャートを参照しながら説明する。図13は、情報提供サーバ220で実行される日陰の判定処理を示すフローチャートである。情報提供サーバ220は、ステップS700において、ネットワーク210を介してカメラ300と通信し、カメラ300の現在位置、方位、仰角、画角、距離、および指定日時のデータを得る。次に情報提供サーバ220は、ステップS710において、ネットワーク210を介して地図データベース230にアクセスし、カメラ300の現在位置の情報に基づいて、カメラ300の周辺の地図データを得る。次に情報提供サーバ220は、ステップS720において、カメラ300の現在位置、方位、仰角、画角、および地図データベース230から獲得した周辺の地図データに基づいて、カメラ300に写る建造物や撮影に影響する建造物を特定する。次に情報提供サーバ220は、ステップS730において、建造物データベース230にアクセスし、ステップS720で特定した建造物のデータを得る。次に情報提供サーバ220は、ステップS740において、カメラ300の現在位置および指定日時の情報から、太陽の位置を特定する。次に情報提供サーバ220は、ステップS750において、ステップS740で特定した太陽の位置と、ステップ730で得た建造物のデータに基づいて、カメラの周囲で日陰になる範囲を特定する。次に情報提供サーバはステップS760において、カメラの距離情報も参照し、カメラの撮影対象が日陰に入るかを特定する。最後に情報提供サーバ220は、ステップS770において、ネットワークを介してカメラと通信し、ステップS760で特定した情報をカメラ300に通知する。
 なお、図12に示す制御部340が判定結果を画像表示部330に表示する態様については、単純に主要被写体が日陰の中に入るか否かの判定結果を示す警告表示を行うだけでもよいが、日蔭に関する他の情報を表示してもよい。例えば、予想される日陰の映像を生成して表示するように工夫することも可能である。そのためには、図12のコーデック320で圧縮した映像を、ネットワーク通信部360を介して、リアルタイムにネットワーク210に送信する仕組みを追加すればよい。これにより、カメラ300からリアルタイムの映像が、情報提供サーバ220に送信される。情報提供サーバ220は、受信した映像を復号し、さらに、予想される日陰の様子を表示するように映像を加工し、この加工された映像を圧縮して、カメラ300へ送り返す。カメラ300は、ネットワーク通信部360を介して情報提供サーバ220からの映像を受信し、コーデック320によって映像をデコードし、画像表示部330に表示する。これにより、カメラ300のユーザは、設定した日時に、映像中の日蔭がどのようになるかを確認することができる。一般に、情報提供サーバ220は、カメラ300よりも高い処理能力を有しているため、このような形態は有効である。
 また、本実施の形態では、主要被写体までの距離を検出し、その主要被写体が日陰の中に入るか否かが判定されるが、このような形態に限られない。情報提供サーバ220は、撮影範囲内に単に日陰が含まれるか否かを判定してもよいし、撮影範囲中の日陰の割合が所定の閾値よりも大きいか否かを判定してもよい。
 [4-3.効果等]
 以上のように、本実施の形態では、ユーザが設定した日時に、撮影現場が日陰になるか、あるいは主要被写体が日陰に入るかを事前に検出し、野外撮影をサポートする情報を提供することが可能となる。これにより、ユーザは、撮影現場あるいは主要被写体が日陰に入ることを未然に回避することができるため、撮影現場の変更を防止することができる。
 本実施の形態は、図5における例5に対応している。したがって、情報提供サーバ220は、上記の判定動作の他、図5に示す他の判定を行い、その結果をカメラ200に通知してもよい。例えば、主要被写体が日陰の中に入る時刻または入るまでの時間、または主要被写体が日陰の中に入るようになるカメラ300の向きを通知してもよい。
 なお、本実施の形態における上記の機能は、意図的に日陰のシーンを撮影する用途にも利用することができる。その場合でも、カメラ300および情報提供サーバ220の動作は上記と同様である。
 (他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1~4を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1~4で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
 実施の形態2~4では、太陽光に関連した情報を扱うため、撮影時の気象状況によって撮影の適否が左右される。そこで、さらに気象情報のデータベースを利用し、天候予想を含めて撮影の適否を判断するようにしてもよい。
 また、撮影装置および情報提供サーバは、実施の形態1~4の機能のうちの少なくとも2つを備え、ユーザの指定によってそれらの機能が切り換えられるように構成されていてもよい。そのためには、例えば図12に示す撮影装置300における操作部390が、撮影予定日時だけでなく撮影対象および非撮影対象の少なくとも一方を設定できるように構成されていればよい。そのような構成では、ユーザは、操作部390を操作することにより、撮影対象および非撮影対象の少なくとも一方を自由に設定することができる。例えば、ユーザが公共交通機関を撮影対象に指定し、かつ日陰を非撮影対象に指定する場合を考える。その場合、制御部340は、カメラ300の位置、向き、画角、撮影日時などの情報に加えて、撮影対象および非撮影対象を示す情報を情報提供サーバ220に送信する。それらの情報を受信した情報提供サーバ220の制御部34(図2B)は、実施の形態1および実施の形態4で示した判定動作を並行して行い、撮影範囲に公共交通機関が含まれるか否か、およびその公共交通機関が日陰の中に入るか否かについての判定結果や、それに付随する情報をカメラ300に送信する。カメラ300は、情報提供サーバ220から送られてきた情報を画像表示部330に表示する。これにより、ユーザは、公共交通機関を撮影し、かつ日陰を回避するための対策を容易に講じることができる。
 実施の形態1~4では、カメラと情報提供サーバとを備える情報提供システムによって各実施形態における機能が提供されるが、情報提供装置または撮影装置が単独で各実施形態の機能を提供するように構成されてもよい。以下、そのような実施形態の例を説明する。
 図14は、ユーザに撮影をサポートするための情報を単独で提供する情報提供装置400の構成例を示すブロック図である。この情報提供装置400は、例えばスタジオなどに設置されるコンピュータであり得る。情報提供装置400は、ネットワーク通信部410と、操作部(ユーザインターフェース)440と、これらを制御する制御部420と、これらを電気的に接続するバス430とを備えている。ユーザが撮影装置の位置および向きを示す情報を操作部440を用いて入力することにより、不図示のディスプレイに所望の撮影対象または非撮影対象が撮影範囲に含まれるかを示す情報などが表示される。この際、制御部420は、ネットワーク通信部410を介して記録媒体450から地形、建造物、公共交通機関、太陽などのデータを取得し、所望の撮影対象または非撮影対象が撮影範囲に含まれるか否かを判定して判定結果を出力する。このような構成により、カメラとのネットワーク通信を前提としない情報提供装置400のみを用いてユーザは撮影本番の状況を把握することができる。なお、この実施形態では、操作部440が取得部として機能するが、撮影装置の位置および向きの情報をネットワーク通信部410を介して取得する場合は、ネットワーク通信部410が取得部として機能する。
 図15は、情報提供装置400の制御部420による動作の概要を示すフローチャートである。制御部420は、まず、撮影装置の位置および向きを示す第1の情報を取得する(ステップS1500)。次に、第1の情報に基づいて、撮影装置の周辺の地形および建造物の空間配置を示す第2の情報を取得する(ステップS1510)。続いて、第1の情報に基づいて、公共交通機関の運行状況及び太陽の位置の少なくとも一方を示す第3の情報を取得する(ステップS1520)。そして、第1から第3の情報に基づいて、撮影対象または非撮影対象が、撮影装置の撮影範囲内に含まれるか否かを判定する(ステップS1530)。最後に、判定結果を示す情報を出力する(ステップS1540)。なお、図15では基本的な動作だけを示しているが、制御部420は、図示されていない付随的な動作を併せて行ってもよい。例えば、撮影対象または非撮影対象がいつ撮影範囲内に含まれるか、あるいは撮影装置の向きをどのように変えれば撮影範囲内に含まれるようになるか、といった情報を計算して表示してもよい。また、撮影対象と非撮影対象の両方について判定を行ってもよい。
 以上の動作により、ユーザは、カメラを操作することなく、情報提供装置400だけを用いて判定結果を得ることができる。このため、例えばスタジオにいながらにして野外撮影の事前調査を容易に行うことができる。
 以上の実施形態では、情報提供装置が各種の判定処理を行って判定結果を出力しているが、このような動作を撮影装置が行うように構成してもよい。そのためには、上記の情報提供装置と同様の機能を有する装置が撮影装置内に搭載されていればよい。そのような構成では、撮影装置は、ネットワークを介して地形、建造物、公共交通機関の運行状況、太陽の軌道などの必要な情報を自ら取得し、必要な判定処理を行い、判定結果をディスプレイなどに出力する。これにより、ユーザは、撮影装置だけを用いて野外撮影をサポートする種々の情報を得ることができる。
 本開示の技術は、上述の情報提供システム、情報処理装置、撮影装置に限らず、上述の任意の実施形態における処理を規定するソフトウェア(コンピュータプログラム)にも適用され得る。そのようなプログラムに規定される動作は、例えば図3、8、10、11、13、15に示すとおりである。このようなプログラムは、可搬型の記録媒体に記録されて提供され得る他、電気通信回線を通じても提供され得る。装置に内蔵されたプロセッサがこのようなコンピュータプログラムを実行することにより、上記の実施形態における各種の動作を実現することができる。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示の技術は、例えば野外撮影を行う際に、撮影をサポートする各種の情報をユーザに提供する用途に利用可能である。
 10  撮影装置
 11  撮像部
 14  制御部
 15  バス
 16  ネットワーク通信部
 19  検出部
 20  ネットワーク
 30  情報提供装置
 34  制御部
 35  バス
 36  ネットワーク通信部
 40  記録媒体
 100 カメラ
 110 撮像部
 120 コーデック
 130 画像表示部
 140 制御部
 150 バス
 160 ネットワーク通信部
 170 記録媒体
 180 位置検出器
 182 方位検出器
 184 仰角検出器
 186 画角検出部
 200 カメラ
 210 ネットワーク
 220 情報提供サーバ
 230 地図データベース
 240 建造物データベース
 250 公共交通機関データベース
 300 カメラ
 310 撮像部
 320 コーデック
 330 画像表示部
 340 制御部
 350 バス
 360 ネットワーク通信部
 370 記録媒体
 380 位置検出器
 382 方位検出器
 384 仰角検出器
 386 画角検出部
 388 距離検出器
 390 操作部
 400 情報提供装置
 410 ネットワーク通信部
 420 制御部
 430 バス
 440 操作部
 450 記録媒体

Claims (15)

  1.  ネットワークを介して相互に接続される撮影装置および情報提供装置を備える情報提供システムであって、
     前記撮影装置は、
     前記ネットワークを介して通信を行う第1のネットワーク通信部と、
     前記撮影装置の位置および向きを検出する検出部と、
     検出された前記撮影装置の位置および向きを示す第1の情報を、前記第1のネットワーク通信部を介して前記情報提供装置に送信する第1の制御部と、
    を有し、
     前記情報提供装置は、
     前記ネットワークを介して通信を行う第2のネットワーク通信部と、
     前記第2のネットワーク通信部によって取得された前記第1の情報に基づいて、前記撮影装置の周辺の地形および建造物の空間配置を示す第2の情報、および公共交通機関の運行状況および太陽の軌道の少なくとも一方を示す第3の情報を記録媒体から取得し、前記第1から第3の情報に基づいて、前記撮影装置の撮影範囲内に撮影対象または非撮影対象が含まれるか否かを判定し、判定結果を示す情報を前記第2のネットワーク通信部を介して撮影装置に送信する第2の制御部と、
    を有する、
    情報提供システム。
  2.  前記撮影装置は、ユーザが撮影日時を指定するためのユーザインターフェースをさらに備え、
     前記第1の制御部は、前記第1の情報および前記ユーザによって指定された前記撮影日時を示す情報を前記情報提供装置に送信し、
     前記第2の制御部は、指定された前記撮影日時において、前記撮影対象または前記非撮影対象が、前記撮影範囲内に含まれるか否かを判定する、
    請求項1に記載の情報提供システム。
  3.  前記第3の情報は、公共交通機関の運行状況を示す情報を含み、
     前記撮影対象または前記非撮影対象が前記公共交通機関であるとき、
     前記第2の制御部は、前記第1から第3の情報に基づいて、前記公共交通機関が前記撮影装置の撮影範囲内に含まれるか否かを判定し、判定結果を示す情報を前記撮影装置に送信する、
    請求項1または2に記載の情報提供システム。
  4.  前記第2の制御部は、前記公共交通機関が前記撮影範囲内に含まれないと判定したとき、前記公共交通機関が前記撮影装置の付近を通過するか否かを判定して判定結果を示す情報を前記撮影装置に送信する、請求項3に記載の情報提供システム。
  5.  前記制御部は、前記公共交通機関が前記撮影範囲内に含まれないと判定したとき、前記公共交通機関が次に前記撮影範囲内に含まれる時刻、または前記公共交通機関が次に前記撮影範囲内に含まれるまでの時間を示す情報を前記撮影装置に送信する、請求項3または4に記載の情報提供システム。
  6.  前記第3の情報は、前記太陽の軌道を示す情報を含み、
     前記撮影対象または前記非撮影対象が前記太陽であるとき、
     前記第2の制御部は、前記第1から第3の情報に基づいて、前記太陽が前記撮影装置の撮影範囲内に含まれるか否かを判定し、判定結果を示す情報を前記撮影装置に送信する、
    請求項1から5のいずれかに記載の情報提供システム。
  7.  前記制御部は、前記太陽が前記撮影範囲内に含まれないと判定したとき、前記太陽が次に前記撮影範囲内に含まれる時刻、前記太陽が次に前記撮影範囲内に含まれるまでの時間、または前記太陽が前記撮影範囲内に含まれるようになる前記撮影装置の方向を示す情報を前記撮影装置に送信する、請求項6に記載の情報提供システム。
  8.  前記撮像装置は、主要被写体までの距離を検出する距離検出器をさらに有し、
     前記第1の制御部は、検出された前記主要被写体までの距離を示す第4の情報を前記第1のネットワーク通信部を介して前記情報提供装置に送信し、
     前記第3の情報は、太陽の位置を示す情報を含み、
     前記非撮影対象が日陰の中の前記主要被写体であるとき、
     前記制御部は、前記第1から第4の情報に基づいて、前記主要被写体が日陰の中に入るか否かを判定し、判定結果を示す情報を前記撮影装置に送信する、
    請求項1から7のいずれかに記載の情報提供システム。
  9.  前記撮像装置は、前記撮影対象または前記非撮影対象をユーザが指定するためのユーザインターフェースをさらに有し、
     前記第1の制御部は、指定された前記撮影対象または前記非撮影対象を示す情報を前記情報提供装置に送信する、
    請求項1から8のいずれかに記載の情報提供システム。
  10.  前記検出部は、前記撮影装置の位置、方位、仰角、および画角を検出し、
     前記第1の制御部は、前記撮影装置の位置、方位、仰角、および画角を示す情報を含む前記第1の情報を、前記第1のネットワーク通信部を介して前記情報提供装置に送信する、
    請求項1から9のいずれかに記載の情報提供システム。
  11.  請求項1から10のいずれかに記載の情報提供システムにおいて用いられる情報提供装置。
  12.  撮影装置の位置および向きを示す第1の情報を取得する取得部と、
     前記第1の情報に基づいて、前記撮影装置の周辺の地形および建造物の配置を示す第2の情報、および公共交通機関の運行状況および太陽の軌道の少なくとも一方を示す第3の情報を記録媒体から取得し、前記第1から第3の情報に基づいて、前記撮影装置の撮影範囲内に撮影対象または非撮影対象が含まれるか否かを判定し、判定結果を示す情報を出力する制御部と、
    を備える情報提供装置。
  13.  請求項1から10のいずれかに記載の情報提供システムにおいて用いられる撮影装置。
  14.  撮影によって映像データを生成する撮像部と、
     請求項12に記載の情報提供装置と、
     前記制御部によって出力された前記判定結果を示す情報を表示する表示部と、
    を備える撮影装置。
  15.  コンピュータプログラムであって、情報提供装置に搭載されたコンピュータに、
     撮影装置の位置および向きを示す第1の情報を取得するステップと、
     前記第1の情報に基づいて、前記撮影装置の周辺の地形および建造物の配置を示す第2の情報を取得するステップと、
     前記第1の情報に基づいて、公共交通機関の運行状況および太陽の軌道の少なくとも一方を示す第3の情報を取得するステップと、
     前記第1から第3の情報に基づいて、前記撮影装置の撮影範囲内に撮影対象または非撮影対象が含まれるか否かを判定するステップと、
     判定結果を示す情報を出力するステップと、
    を実行させるコンピュータプログラム。
PCT/JP2012/007971 2012-03-12 2012-12-13 情報提供システム、情報提供装置、撮影装置、およびコンピュータプログラム WO2013136399A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/980,591 US20140049654A1 (en) 2012-03-12 2012-12-13 Information providing system, information providing device, image capture device, and computer program
CN2012800061644A CN103416050A (zh) 2012-03-12 2012-12-13 信息提供系统、信息提供装置、拍摄装置以及计算机程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-054157 2012-03-12
JP2012054157 2012-03-12

Publications (1)

Publication Number Publication Date
WO2013136399A1 true WO2013136399A1 (ja) 2013-09-19

Family

ID=49160374

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/007971 WO2013136399A1 (ja) 2012-03-12 2012-12-13 情報提供システム、情報提供装置、撮影装置、およびコンピュータプログラム

Country Status (4)

Country Link
US (1) US20140049654A1 (ja)
JP (1) JPWO2013136399A1 (ja)
CN (1) CN103416050A (ja)
WO (1) WO2013136399A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5547860B1 (ja) * 2013-08-05 2014-07-16 ソノー電機工業株式会社 ユーザの現在位置と現在方位角を用いて目的の地理的情報を検索してユーザに提供するユーザ携帯端末
JPWO2021124579A1 (ja) * 2019-12-20 2021-12-23 株式会社センシンロボティクス 飛行体の撮像方法及び情報処理装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10798282B2 (en) 2002-06-04 2020-10-06 Ge Global Sourcing Llc Mining detection system and method
US10110795B2 (en) 2002-06-04 2018-10-23 General Electric Company Video system and method for data communication
JP6320068B2 (ja) * 2013-03-29 2018-05-09 キヤノン株式会社 情報処理装置、ネットワークカメラ及びシステム
JP2014202690A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 ナビゲーション装置及び記憶媒体
CN110545380B (zh) * 2014-02-17 2021-08-06 通用电气全球采购有限责任公司 用于数据通信的视频系统和方法
WO2016026074A1 (en) * 2014-08-18 2016-02-25 Google Inc. Determining compass orientation of imagery
JP6845790B2 (ja) * 2017-11-30 2021-03-24 株式会社東芝 位置推定装置、位置推定方法及び端末装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165768A (ja) * 2002-11-11 2004-06-10 Canon Inc 画像符号化装置
JP2008180840A (ja) * 2007-01-24 2008-08-07 Fujifilm Corp 撮影装置
JP2010251954A (ja) * 2009-04-14 2010-11-04 Panasonic Corp 撮像装置
JP2012020632A (ja) * 2010-07-14 2012-02-02 Nikon Corp 交通手段の通過時刻表示方法、これをコンピュータに実行させるためのプログラム及びこのプログラムを記録した記録媒体、並びに携帯電子機器
JP2012029041A (ja) * 2010-07-23 2012-02-09 Nikon Corp デジタルカメラ
JP2012112782A (ja) * 2010-11-24 2012-06-14 Navitime Japan Co Ltd ナビゲーション装置、ナビゲーションシステム、ナビゲーションサーバ、ナビゲーション方法、および、プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007432A (ja) * 2000-06-23 2002-01-11 Ntt Docomo Inc 情報検索システム
TWI578283B (zh) * 2009-02-20 2017-04-11 尼康股份有限公司 Carrying information machines, information acquisition systems, information retrieval servers, and information machines
US8121472B2 (en) * 2009-09-10 2012-02-21 Babak Forutanpour Signal measurements employed to affect photographic parameters

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004165768A (ja) * 2002-11-11 2004-06-10 Canon Inc 画像符号化装置
JP2008180840A (ja) * 2007-01-24 2008-08-07 Fujifilm Corp 撮影装置
JP2010251954A (ja) * 2009-04-14 2010-11-04 Panasonic Corp 撮像装置
JP2012020632A (ja) * 2010-07-14 2012-02-02 Nikon Corp 交通手段の通過時刻表示方法、これをコンピュータに実行させるためのプログラム及びこのプログラムを記録した記録媒体、並びに携帯電子機器
JP2012029041A (ja) * 2010-07-23 2012-02-09 Nikon Corp デジタルカメラ
JP2012112782A (ja) * 2010-11-24 2012-06-14 Navitime Japan Co Ltd ナビゲーション装置、ナビゲーションシステム、ナビゲーションサーバ、ナビゲーション方法、および、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5547860B1 (ja) * 2013-08-05 2014-07-16 ソノー電機工業株式会社 ユーザの現在位置と現在方位角を用いて目的の地理的情報を検索してユーザに提供するユーザ携帯端末
JPWO2021124579A1 (ja) * 2019-12-20 2021-12-23 株式会社センシンロボティクス 飛行体の撮像方法及び情報処理装置

Also Published As

Publication number Publication date
JPWO2013136399A1 (ja) 2015-07-30
CN103416050A (zh) 2013-11-27
US20140049654A1 (en) 2014-02-20

Similar Documents

Publication Publication Date Title
WO2013136399A1 (ja) 情報提供システム、情報提供装置、撮影装置、およびコンピュータプログラム
JP5200780B2 (ja) 撮影装置および方法、並びにプログラム
US9106879B2 (en) Apparatus and method for automatic white balance with supplementary sensors
US20130128059A1 (en) Method for supporting a user taking a photo with a mobile device
US20170054907A1 (en) Safety equipment, image communication system, method for controlling light emission, and non-transitory recording medium
JP2006333132A (ja) 撮像装置及び撮像方法、プログラム、プログラム記録媒体並びに撮像システム
JP2006013923A (ja) 監視装置
US20180103197A1 (en) Automatic Generation of Video Using Location-Based Metadata Generated from Wireless Beacons
US8339477B2 (en) Digital camera capable of detecting name of captured landmark and method thereof
JP6532958B2 (ja) スマート飛行機器の撮影方法、スマート飛行機器、プログラム及び記録媒体
JP2016048856A (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
KR20150134960A (ko) 촬영 구도 추천 방법, 및 장치
KR20160078724A (ko) 카메라 감시 영역 표시 방법 및 장치
WO2013118460A2 (en) Server, client terminal, system, and program
KR101358690B1 (ko) 조회 대상 단말기 위치 지역 영상 정보 제공 시스템 및 방법
KR101619522B1 (ko) 차량의 카메라를 이용한 영상 수집 시스템 및 그 제어 방법
US20120320192A1 (en) Cooperative operation device, cooperative operation method, cooperative operation control program, and device cooperation system
KR20110121426A (ko) 주, 야간 겸용 이동물체 관측시스템
JP5098966B2 (ja) 撮像装置
JP6275358B1 (ja) 距離算出システム、方法及びプログラム
JP2016025620A (ja) 画像処理システム、クライアントシステム、画像処理方法、および記憶媒体
JP6610741B2 (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
JP2008154188A (ja) 画像伝送システム及び画像伝送方法
CN101841648A (zh) 照相装置及其附加地理信息方法
WO2018079043A1 (ja) 情報処理装置、撮像装置、情報処理システム、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013526243

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13980591

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12871538

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12871538

Country of ref document: EP

Kind code of ref document: A1