WO2013183237A1 - 撮像装置の画角を出力する装置、システム、方法およびプログラム - Google Patents

撮像装置の画角を出力する装置、システム、方法およびプログラム Download PDF

Info

Publication number
WO2013183237A1
WO2013183237A1 PCT/JP2013/003189 JP2013003189W WO2013183237A1 WO 2013183237 A1 WO2013183237 A1 WO 2013183237A1 JP 2013003189 W JP2013003189 W JP 2013003189W WO 2013183237 A1 WO2013183237 A1 WO 2013183237A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
angle
view
output
imaging
Prior art date
Application number
PCT/JP2013/003189
Other languages
English (en)
French (fr)
Inventor
高橋 祐介
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2014519820A priority Critical patent/JP6304029B2/ja
Publication of WO2013183237A1 publication Critical patent/WO2013183237A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an apparatus for outputting an angle of view of an imaging apparatus, a system for outputting an angle of view of an imaging apparatus, a method for outputting an angle of view of an imaging apparatus, a program, a method for controlling output of an angle of view of an imaging apparatus, and the like
  • the present invention relates to an imaging apparatus used.
  • Cameras may be installed for surveillance and marketing surveys.
  • the camera is installed on a ceiling, a wall surface, or the like. At this time, it is necessary to confirm which range the camera is shooting.
  • a person who installs the camera adjusts a preferable posture (for example, an angle of view and a magnification) of the camera while viewing an actual image captured by the installed camera on a monitor at hand or the like.
  • Patent Document 1 describes a shooting range projection method in which a figure is projected onto a shooting range of a camera by adjusting a shooting field of view of the camera.
  • a work supporter inputs movement amount information for moving the image displayed on the monitor.
  • the shooting range projection method described in Patent Document 1 the field of view of the camera is moved based on the input movement amount information, and a predetermined figure is projected onto the shooting range calculated based on the movement amount information. To do.
  • Patent Document 2 describes a projector including an imaging unit that captures a projected image.
  • the projection region and the imaging region match even if the distance between the projector and the projection surface is changed.
  • the imaging unit is moved so as to
  • the camera and the projection apparatus need to be calibrated, and the movement amount of the projection figure is calculated from the movement amount information for controlling the camera. A control model is required.
  • the shooting range projection method described in Patent Document 1 only controls the orientation of the camera, and the figure to be projected is limited to a predetermined figure.
  • the shooting range projection method described in Patent Document 1 requires a separate operator for confirming the shooting range of the camera.
  • the shooting range projection method described in Patent Document 1 since the shooting range is calculated based on the movement amount information, a calibration and a camera control model are required, and the control is complicated. is there. It is desirable that the angle of view position can be output without performing such complicated calibration.
  • the method described in Patent Document 2 is a method for adjusting the shooting range of the camera to the projection position of the projector. That is, as described above, the scene where the user adjusts the camera posture is different from the scene where the method described in Patent Document 2 is applied.
  • the installed camera needs to have a function of automatically controlling the projection position according to the content projected by the projector. Since not all cameras can be automatically controlled so as to photograph a position designated by a projector or the like, it is difficult to apply to a general scene where a camera is installed.
  • the present invention provides a device that outputs the angle of view of the imaging device, a system that outputs the angle of view of the imaging device, and a field angle of the imaging device that can output the angle of view of the camera without performing complicated calibration. It is an object of the present invention to provide an output method, a program, a method for controlling the output of the angle of view of the imaging apparatus, and an imaging apparatus used for these.
  • An apparatus for outputting an angle of view of an imaging apparatus includes: a first video output unit that outputs a first video to a shooting area shot by the imaging apparatus; and a second video that indicates the angle of view of the imaging apparatus. And a second video output unit for outputting to the imaging region.
  • a system for outputting an angle of view of an imaging apparatus includes: a video output device that outputs video; and a control device that controls video output from the video output device, wherein the control device is connected to the video output device.
  • a first video control unit that outputs a first video to a shooting region shot by the imaging device, and a second video indicating an angle of view of the imaging device is output to the shooting region with respect to the video output device.
  • a second video control unit is
  • the imaging apparatus is configured to output the second video indicating the angle of view of the other device to the output device that receives the captured video obtained by capturing the video including the first video from the other device.
  • a transmission unit for transmitting data indicating the shooting state of the video.
  • the method of outputting the angle of view of the imaging device according to the present invention outputs a first video to a shooting area shot by the imaging device, and outputs a second video showing the angle of view of the imaging device to the shooting area. It is characterized by.
  • the control device that controls the video output by the video output device is configured to display the first video in the shooting area captured by the imaging device with respect to the video output device. And a second image showing the angle of view of the imaging device is output to the imaging region.
  • a program according to the present invention outputs, to a computer, a first video output process for outputting a first video to a shooting area shot by the imaging device, and a second video indicating the angle of view of the imaging device to the shooting area.
  • the second video output process is executed.
  • 1 is a block diagram illustrating an embodiment of a system that outputs an angle of view of an imaging apparatus according to the present invention. It is explanatory drawing which shows the example of the relationship between the angle of view of an imaging part, and a 1st image
  • FIG. 1 is a block diagram showing an embodiment of a system for outputting an angle of view of an imaging apparatus according to the present invention (hereinafter simply referred to as an output system).
  • the output system of the present embodiment includes an imaging unit 10 and an output unit 20.
  • the output system illustrated in FIG. 1 includes one imaging unit 10, but the number of imaging units is not limited to one and may be two or more.
  • the imaging unit 10 is installed on the ceiling or wall surface by the user, and notifies the output unit 20 of the captured video.
  • the imaging unit 10 may change the camera posture such as the angle of view and the magnification based on an instruction from another device.
  • the imaging unit 10 of the present embodiment only needs to have a function of notifying the output unit 20 of at least a video captured by itself.
  • the imaging unit 10 is realized by, for example, a video camera.
  • the imaging unit 10 captures a video including a video (hereinafter, referred to as a first video) output from a first video output unit 21 to be described later, the captured video or a shooting status of the video is displayed. Data is notified to the output unit 20.
  • a captured image an image including a first image captured by the imaging unit 10 is referred to as a captured image.
  • the data indicating the shooting state of the video may be the captured video itself, or may include information indicating that the first video is included (or not included) in the captured video. Further, the data indicating the shooting status of the video includes information indicating where the first video is shot in the shot video, and a second video output by the second video output unit 22 described later. It may include information indicating that the image is out of range.
  • the timing at which the imaging unit 10 notifies the output unit 20 is arbitrary.
  • the imaging unit 10 may notify the output unit 20 of a captured video or data indicating a shooting situation at the timing when the first video is detected. Further, the imaging unit 10 may regularly notify the output unit 20 of a captured video or data indicating a shooting situation.
  • the output unit 20 includes a first video output unit 21 and a second video output unit 22.
  • the output unit 20 is realized by a projector, for example.
  • the first video output unit 21 outputs a predetermined video (that is, the first video) to the shooting area by the imaging unit 10.
  • the first video is a video used for specifying a position where the imaging unit 10 takes a picture.
  • the first video output unit 21 outputs the first video while changing the first video in a shooting region by the imaging unit 10.
  • the imaging region by the imaging unit 10 includes not only a location where the imaging unit 10 is currently imaging, but also a location where the imaging unit 10 is assumed to capture (that is, there is a possibility of imaging).
  • an area actually captured by the imaging unit 10 is referred to as an angle of view of the imaging unit 10, and is used separately from the imaging area.
  • the imaging unit 10 captures any place on the arranged screen
  • the imaging region may be captured as well as a part of the screen actually captured by the imaging unit 10. Includes the entire screen.
  • FIG. 2 is an explanatory diagram illustrating an example of the relationship between the angle of view of the imaging unit 10 and the first video.
  • the imaging unit 10 captures a video at the angle of view a1 and notifies the output unit 20 of the first video i1 displayed in the shooting area A1.
  • the first video is arbitrary, but is preferably a video showing a predetermined pattern so that it can be distinguished from the background image. Further, the first video output unit 21 may output a video image including an identifier that identifies the imaging unit 10 in consideration of the possibility that there are a plurality of imaging units 10 and distinguishing it from the background. . A specific example in which the first video output unit 21 outputs the first video will be described later.
  • the second video output unit 22 outputs a video indicating the angle of view of the imaging unit 10 (hereinafter also referred to as a second video) to the shooting area. Specifically, the second video output unit 22 outputs the second video to the shooting area in accordance with the shot video notified from the imaging unit 10 or data indicating the shooting status of the first video. That is, the position where the second video is output corresponds to the angle of view of the imaging unit 10.
  • the second video output unit 22 determines the end of the angle of view of the imaging unit 10 according to, for example, a captured video notified from the imaging unit 10 or data indicating the shooting status of the first video. For example, when the first video output unit 21 outputs the first video while changing the first video to the shooting area, the first video is shot by the imaging unit 10 without being lost, and the first video is shot by the imaging unit 10. There is a case where a part of the first video is missing. Therefore, when the aspect of the first video included in the captured video changes in this way, the second video output unit 22 may determine the changed position as the end of the angle of view of the imaging unit 10.
  • the second video output unit 22 determines the area formed by connecting the plurality of end portions detected in this way as the angle of view of the imaging unit 10, and at the position corresponding to this angle of view, the second image output unit 22 May be output.
  • the content of the second video is not limited as long as the angle of view of the imaging unit 10 can be specified.
  • the second video output unit 22 may output a video specifying the four corners of the angle of view of the imaging unit 10 as the second video, and the second video output unit 22 displays a video showing a quadrilateral connecting the four corners with straight lines. May be output as a video.
  • the second video output unit 22 may output a video that fills the position indicating the angle of view as the second video.
  • the second video output unit 22 may output an image indicating the angle of view including an identifier for identifying the imaging unit 10 in consideration of the possibility that there are a plurality of imaging units 10.
  • the first video itself output from the first video output unit 21 may be a video showing the angle of view of the imaging unit 10 (that is, the second video).
  • the first video output unit 21 may perform the process performed by the second video output unit 22.
  • the first video and the second video can be obtained by changing the color of the video for each imaging unit 10. Can be shared. It is more preferable to separate the first video and the second video because the difference between the two images becomes clear when there are a plurality of imaging units 10.
  • FIG. 3 is an explanatory diagram showing an example in which the second video is displayed in the shooting area A1.
  • the angle of view of the imaging unit 10 is specified based on the first video output from the first video output unit 21, and the second video output unit 22 is positioned at the specified position. Is output.
  • the first video i1 may be output in accordance with the second video i2.
  • the first video is used for outputting the second video
  • both the first video and the second video are videos output by the output unit 20. That is, since the output unit 20 can recognize the position where the first video is output, the angle of view of the camera can be specified without performing complicated calibration.
  • the angle of view position of the camera is output in correspondence with the position where the camera actually captures the image. Therefore, the angle of view position of the camera can be output in a manner that is easy for the user to understand.
  • FIG. 4 is an explanatory diagram illustrating a first example in which the first video is output while being changed.
  • the angle of view a1 has the relationship illustrated in FIG.
  • a rectangular first video is output in a range wider than the angle of view a1.
  • the imaging unit 10 captures the video a2.
  • the video a2 corresponds to a part of the first video i2. That is, in the example illustrated in FIG. 4, a part of the first video i ⁇ b> 2 is included in the entire region captured by the imaging unit 10.
  • the first video output unit 21 reduces the first video at a predetermined rate, as illustrated by the arrow in FIG. Then, as shown in FIG. 4D, the end e1 of the first video i3 is photographed inside the angle of view a1.
  • the imaging unit 10 captures the video a3 and notifies the output unit 20
  • the second video output unit 22 determines the end e1 of the first video i3, and the position is the end of the angle of view a1.
  • the first video output unit 21 reduces the first video i3 again in the direction other than the end e1, and the second video output unit 22 similarly detects the end of the first video i3.
  • the angle of view a1 is determined.
  • FIG. 5 is an explanatory diagram showing a second example of outputting while changing the first video.
  • the angle of view a1 has the relationship illustrated in FIG.
  • a small video for scanning is output as the first video.
  • the first video output unit 21 outputs the first video i4 while moving the first video i4 so as to scan the shooting area, as indicated by the broken line in FIG.
  • the method of moving the first video i4 may be regular or random.
  • the imaging unit 10 captures the video a4.
  • the first video i4 is not captured in the video a4.
  • the imaging unit 10 captures the video a5 including the first video i4.
  • the second video output unit 22 determines that the position where the first video i4 was shot is the region of the view angle a1.
  • the second image output unit 22 determines the end of the view angle a1 and the region of the view angle a1.
  • a linear video may be used for the first video.
  • Using the linear image as the scanning image can more efficiently determine the area of the angle of view a1 than using a small image such as a dot.
  • FIG. 6 is an explanatory diagram showing a third example in which the first video is output while being changed. As in the case illustrated in FIG. 4, it is assumed that the angle of view a1 has the relationship illustrated in FIG.
  • the first video output unit 21 outputs a rectangular first video.
  • the first video output unit 21 outputs a first video having an arbitrary shape.
  • the imaging unit 10 captures the video a6.
  • the video a6 corresponds to a part of the first video i5. That is, in the example illustrated in FIG. 6, a part of the first video i5 is included in the entire region captured by the imaging unit 10.
  • the first video output unit 21 deforms the output first video i5 in an arbitrary direction as illustrated by an arrow in FIG.
  • the first video output unit 21 deforms the first video i5 by moving a plurality of points on the outer edge of the predetermined first video i5 in an arbitrary direction and connecting the moved points. May be.
  • the end e2 of the first video i6 is photographed inside the angle of view a1.
  • the imaging unit 10 captures the video a7 and notifies the output unit 20
  • the second video output unit 22 determines the end e2 of the first video i6, and the position is the end of the angle of view a1.
  • the first video output unit 21 deforms the first video i6 again for portions other than the end e2, and the second video output unit 22 similarly detects the end of the first video i6.
  • the angle of view a1 is determined.
  • FIG. 7 is an explanatory diagram showing a fourth example in which the first video is output while being changed. As in the case illustrated in FIG. 4, it is assumed that the angle of view a1 has the relationship illustrated in FIG.
  • the first rectangular image is output in a range wider than the angle of view a1 is illustrated.
  • the first rectangular image is displayed on a part of the angle of view a1.
  • video is output. That is, it is assumed that the first video output unit 21 outputs the first video i7 illustrated in FIG. 7B and the video a8 is captured by the imaging unit 10.
  • the first video output unit 21 calculates the difference between the first video i7 included in the range captured by the imaging unit 10 and the first video i7 output by the first video output unit 21. By analyzing, the first video i7 to be output is changed.
  • the first video output unit 21 deforms the first video i7 so that a minute gap is formed between the angle of view a1 and the first video i7.
  • the difference between the angle of view and the first video means a shift between the position indicating the range of the angle of view and the position where the first video is displayed. If there is no difference (a minute gap) between the angle of view a1 and the first video i7, the first video i7 is considered to be larger than the angle of view.
  • the first image i7 is reduced until a difference is generated between a1 and the first image i7.
  • the first video output unit 21 has a small difference between the angle of view a1 and the first video i7.
  • the first video i7 is enlarged so that
  • the example shown in FIG. 7 is an example in which the first video i7 is a rectangle.
  • a video a8 is obtained.
  • the difference between the angle of view in the video a8 and the first video i7 is large on the upper side, small on the left and right sides, and not on the lower side.
  • the first video output unit 21 changes the first video i7. Specifically, the first video output unit 21 moves the upper side greatly upward, moves the left side slightly leftward, moves the right side slightly rightward, and moves the lower side greatly upward. Move.
  • the arrow illustrated in FIG. 7C indicates this deformation process.
  • the imaging unit 10 captures the video a9. .
  • the first video i8 illustrated in FIG. 7D is output.
  • the first image i7 may be a polygon other than a quadrangle, or an arbitrary shape other than a polygon. Also in these cases, the first video output unit 21 may perform the deformation process in the same manner. Specifically, the first video output unit 21 may perform expansion processing when the difference between the angle of view a1 and the first video i7 is large, and may perform reduction processing when there is no difference.
  • the method for outputting the first video by the first video output unit 21 has been described above using a specific example, but the method for outputting the first video is not limited to the above-described example.
  • the method by which the second video output unit 22 determines the angle of view a1 is not limited to the method described above. For example, when a feature such as a thumbtack is included in the shooting area, the second video output unit 22 may determine the angle of view a1 using this feature point in addition to the first video.
  • the output unit 20 may periodically receive the captured video from the imaging unit 10 even after outputting the second video.
  • the first video output unit 21 may output the first video again and perform the above-described processing when the second video shot in the shot video is shifted. By doing in this way, even when the attitude of the imaging unit 10 is adjusted, the angle of view of the imaging unit 10 accompanying the adjustment can be confirmed.
  • the first video output unit 21 and the second video output unit 22 are realized by a CPU of a computer that operates according to a program (a program that outputs an angle of view of an imaging device).
  • a program a program that outputs an angle of view of an imaging device.
  • the program may be stored in a storage unit (not shown) of the output unit 20, and the CPU may read the program and operate as the first video output unit 21 and the second video output unit 22 according to the program.
  • each of the first video output unit 21 and the second video output unit 22 may be realized by dedicated hardware.
  • FIG. 8 is a block diagram showing another example of the output system according to the present invention.
  • the output system illustrated in FIG. 8 includes an imaging unit 10, an output unit 40, and a control unit 30.
  • a combination of the output unit 40 and the control unit 30 illustrated in FIG. 8 corresponds to the output unit 20 illustrated in FIG.
  • the control performed by the first video output unit 21 in FIG. 1 is performed on the output unit 40 by the first video control unit 31 in FIG. 8, and the control performed by the second video output unit 22 in FIG. 8 may be performed on the output unit 40.
  • the first video control unit 31 and the second video control unit 32 are realized by a CPU of a computer that operates according to a program (a program that outputs an angle of view of the imaging device).
  • a program a program that outputs an angle of view of the imaging device.
  • the program may be stored in a storage unit (not shown) of the control unit 30, and the CPU may read the program and operate as the first video control unit 31 and the second video control unit 32 according to the program. .
  • control unit 30 is realized by, for example, a personal computer.
  • the output unit 40 is realized by a projector device or the like.
  • FIG. 9 is a flowchart showing an operation example of the output system of the present embodiment.
  • the first video output unit 21 outputs the first video to the shooting area of the imaging unit 10 (step S1).
  • the imaging unit 10 captures an image of the area included in the angle of view (step S2), and notifies the output unit 20 of the captured image including the first image (step S3).
  • the second video output unit 22 determines the angle of view of the imaging unit 10 according to the captured video notified from the imaging unit 10 or the data indicating the shooting status of the first video (step S4).
  • the second video output unit 22 captures, for example, whether the end of the first video has been detected or whether the difference between the angle of view of the imaging unit 10 and the first video is captured as a minute gap. The angle of view of the unit 10 is determined.
  • the first video output unit 21 changes the first video (step S12), and repeats the processing after step S1.
  • the second video output unit 22 specifies the angle of view of the imaging unit 10 and is located at a position corresponding to the specified angle of view of the imaging unit 10. A second video is output (step S5).
  • the first video output unit 21 outputs the first video to the shooting area shot by the imaging unit 10, and the second video output unit 22 displays the image of the imaging unit 10.
  • a second image showing the corner is output to the shooting area. Therefore, the angle of view of the camera can be output in a manner that is intuitively understandable without performing complicated calibration.
  • FIG. 10 is a block diagram showing still another embodiment of the output system according to the present invention.
  • the output system illustrated in FIG. 10 is an example when there are two imaging units (imaging units 10a and 10b). Even when there are two imaging units, the angle of view of each imaging unit can be output using the same method as described above.
  • one output unit 20 is used.
  • the angle of view of each imaging unit 10 can be confirmed.
  • the small video for scanning output by one output unit 20 can be used to specify the angle of view of all the imaging units 10. It is.
  • the first video and the second video may be shared.
  • the first video output unit 21 may output the first video over the entire shooting area, and then reduce the first video until it falls within the angle of view of the imaging unit 10.
  • FIG. 11 is a block diagram showing an outline of an apparatus for outputting the angle of view of the imaging apparatus according to the present invention.
  • An apparatus for outputting an angle of view of an imaging device according to the present invention includes a first video output unit 81 (for example, a first video output unit) that outputs a first video to a shooting area shot by an imaging device (for example, the imaging unit 10). 21) and a second video output unit 82 (for example, the second video output unit 22) that outputs a second video indicating the angle of view of the imaging apparatus to the imaging region.
  • a first video output unit 81 for example, a first video output unit
  • a second video output unit 82 for example, the second video output unit 22
  • the angle of view of the camera can be output in a manner that is intuitively understandable without performing complicated calibration.
  • the second video output unit 82 specifies the angle of view of the imaging device from the data indicating the shooting state of the first video by the imaging device, and sets the second field in the shooting region corresponding to the specified angle of view. Output video.
  • the first video output unit 81 may change the first video to be output according to the data indicating the shooting status of the first video by the imaging device.
  • the second video output unit 82 specifies the angle of view of the imaging device from the data indicating the changed shooting status of the first video, and outputs the second video to the shooting area corresponding to the specified angle of view. May be.
  • the first video output unit 81 analyzes the difference between the first video included in the range captured by the imaging device and the output first video, and changes the first video to be output. Good (see, for example, FIG. 7). Further, the first video output unit 81 may output the first video in a range wider than the angle of view of the imaging device and change the output first video to be reduced (for example, FIG. 4, (See FIG. 6).
  • the first video output unit 81 may change the position of the first video so as to scan the shooting area. Then, the second video output unit 82 specifies the angle of view of the imaging device from the data indicating the changed shooting state of the first video, and outputs the second video to the shooting region corresponding to the specified angle of view. (See, for example, FIG. 5).
  • FIG. 12 is a block diagram showing an outline of a system for outputting the angle of view of the imaging apparatus according to the present invention.
  • the system for outputting the angle of view of the imaging apparatus according to the present invention includes a video output device 60 (for example, output unit 40) that outputs video and a control device 70 (for example, control unit) that controls the video output by the video output device 60. 30).
  • the control device 70 causes the video output device 60 to output a first video to a shooting area shot by the imaging device (for example, the imaging unit 10), and the first video control unit 71 (for example, the first video control unit 31). And a second video control unit 72 (for example, the second video control unit 32) that causes the video output device 60 to output a second video indicating the angle of view of the imaging device to the imaging region.
  • the imaging device for example, the imaging unit 10
  • the first video control unit 71 for example, the first video control unit 31
  • a second video control unit 72 for example, the second video control unit 32
  • FIG. 13 is a block diagram showing an outline of an image pickup apparatus used in a system for outputting an angle of view of the image pickup apparatus according to the present invention.
  • the imaging apparatus illustrated in FIG. 12 receives the captured video obtained by capturing the video including the first video from the other apparatus, and outputs the second video indicating the angle of view of the other apparatus to the output device.
  • a transmission unit 50 (for example, the imaging unit 10) that transmits data indicating the shooting state of one video is provided.
  • the angle of view of the camera can be output in a manner that is intuitively understandable without performing complicated calibration.
  • the present invention is preferably applied to a system that outputs the angle of view position of an imaging apparatus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 撮像装置の画角を出力する装置は、撮像装置が撮影する撮影領域に第一の映像を出力する第一映像出力部81と、撮像装置の画角を示す第二の映像を撮影領域に出力する第二映像出力部82とを備えている。

Description

撮像装置の画角を出力する装置、システム、方法およびプログラム
 本発明は、撮像装置の画角を出力する装置、撮像装置の画角を出力するシステム、撮像装置の画角を出力する方法、プログラム、撮像装置の画角の出力を制御する方法およびこれらに用いられる撮像装置に関する。
 監視やマーケティング調査を行うためにカメラを設置することがある。カメラは、天井や壁面などに設置されるが、この際、カメラがどの範囲を撮影しているか確認する必要がある。カメラを設置する人は、設置されるカメラが撮影している実際の映像を手元のモニタなどで見ながら、カメラの好ましい姿勢(例えば、画角や倍率など)を調整する。
 また、特許文献1には、カメラの撮影視野を調整してカメラの撮影範囲に図形を投影する撮影範囲投影方法が記載されている。特許文献1に記載された撮影範囲投影方法では、カメラが撮影した画像がモニタに表示されると、作業支援者がモニタに表示された画像を移動させるための移動量情報を入力する。また、特許文献1に記載された撮影範囲投影方法では、入力された移動量情報に基づいてカメラの視野を移動させるとともに、その移動量情報に基づいて算出される撮影範囲に所定の図形を投影する。
 なお、特許文献2には、投影画像を撮像する撮像部を備えるプロジェクタが記載されている。特許文献2に記載されたプロジェクタは、撮像部の視野角よりも投影部の画角が広い場合に、プロジェクタと被投影面との間の距離を変化させても投影領域と撮像領域とが一致するように撮像部を移動する。
特開2005-323310号公報 特開2009-229807号公報
 手元のモニタを見ながらカメラを調整する場合、例えば、モニタを片手で保持しつつ、もう一方の手でカメラの姿勢を調整する必要があり、その調整は非常に困難である。また、モニタが何らかの方法で保持されている場合であっても、通常、カメラが撮影する場所とモニタが保持される場所とは、空間上一致しない。すなわち、撮影場所を移動させる方向とモニタに映し出される移動方向とが空間上一致しないため、調整を行う人にとってはカメラ姿勢の調整状況が感覚的に分かりづらく、混乱が生じる可能性もある。そのため、カメラの位置を調整する人にとっては、カメラの画角位置が感覚的に分かりやすいように示されることが望ましい。
 特許文献1に記載された撮影範囲投影方法では、カメラ及び投影装置のキャリブレーションがなされている必要があり、また、カメラを制御するための移動量情報から投影図形の移動量を算出するための制御モデルが必要になる。
 具体的には、特許文献1に記載された撮影範囲投影方法は、カメラの向きを制御するのみであり、投影する図形は予め定めたものに限られる。また、特許文献1に記載された撮影範囲投影方法は、カメラが撮影している範囲を確認する操作者が別途必要になってしまう。さらに、特許文献1に記載された撮影範囲投影方法では、移動量情報に基づいて撮影範囲を算出するため、キャリブレーションおよびカメラ制御モデルが必要になり、その制御が複雑になってしまうという問題がある。このような複雑なキャリブレーションを行うことなく、画角位置を出力できることが望ましい。
 また、特許文献2に記載された方法は、プロジェクタの投影位置にカメラの撮影範囲を合わせる方法である。すなわち、上述するように、ユーザがカメラ姿勢を調整する場面と特許文献2に記載された方法が適用される場面とは、そもそも異なる。また、特許文献2に記載された方法を用いる場合、設置されるカメラは、プロジェクタが投影する内容に応じて投影位置を自動制御する機能を備えている必要がある。全てのカメラが、プロジェクタ等で指定された位置を撮影するように自動制御ができるわけではないため、カメラを設置する一般的な場面に適用することは困難である。
 そこで、本発明は、複雑なキャリブレーションを行うことなく、カメラの画角位置を出力できる、撮像装置の画角を出力する装置、撮像装置の画角を出力するシステム、撮像装置の画角を出力する方法、プログラム、撮像装置の画角の出力を制御する方法およびこれらに用いられる撮像装置を提供することを目的とする。
 本発明による撮像装置の画角を出力する装置は、撮像装置が撮影する撮影領域に第一の映像を出力する第一映像出力部と、前記撮像装置の画角を示す第二の映像を前記撮影領域に出力する第二映像出力部とを備えたことを特徴とする。
 本発明による撮像装置の画角を出力するシステムは、映像を出力する映像出力装置と、前記映像出力装置が出力する映像を制御する制御装置とを備え、前記制御装置が、前記映像出力装置に対し、撮像装置が撮影する撮影領域に第一の映像を出力させる第一映像制御部と、前記映像出力装置に対し、前記撮像装置の画角を示す第二の映像を前記撮影領域に出力させる第二映像制御部とを含むことを特徴とする。
 本発明による撮像装置は、第一の映像を含む映像を撮影した撮影映像を他の装置から受信して当該他の装置の画角を示す第二の映像を出力する出力装置に、前記第一の映像の撮影状況を示すデータを送信する送信部を備えたことを特徴とする。
 本発明による撮像装置の画角を出力する方法は、撮像装置が撮影する撮影領域に第一の映像を出力し、前記撮像装置の画角を示す第二の映像を前記撮影領域に出力することを特徴とする。
 本発明による撮像装置の画角の出力を制御する方法は、映像出力装置が出力する映像を制御する制御装置が、当該前記映像出力装置に対し、撮像装置が撮影する撮影領域に第一の映像を出力させ、前記撮像装置の画角を示す第二の映像を前記撮影領域に出力させることを特徴とする。
 本発明によるプログラムは、コンピュータに、撮像装置が撮影する撮影領域に第一の映像を出力する第一映像出力処理、および、前記撮像装置の画角を示す第二の映像を前記撮影領域に出力する第二映像出力処理を実行させることを特徴とする。
 本発明によれば、複雑なキャリブレーションを行うことなく、カメラの画角位置を出力できる。
本発明による撮像装置の画角を出力するシステムの一実施形態を示すブロック図である。 撮像部の画角と第1の映像との関係の例を示す説明図である。 撮影領域に第二の映像を表示した例を示す説明図である。 第一の映像を変化させながら出力する第一の例を示す説明図である。 第一の映像を変化させながら出力する第二の例を示す説明図である。 第一の映像を変化させながら出力する第三の例を示す説明図である。 第一の映像を変化させながら出力する第四の例を示す説明図である。 本発明による撮像装置の画角を出力するシステムの他の例を示すブロック図である。 撮像装置の画角を出力するシステムの動作例を示すフローチャートである。 本発明による撮像装置の画角を出力するシステムのさらに他の例を示すブロック図である。 本発明による撮像装置の画角を出力する装置の概要を示すブロック図である。 本発明による撮像装置の画角を出力するシステムの概要を示すブロック図である。 本発明による撮像装置の画角を出力するシステムに用いられる撮像装置の概要を示すブロック図である。
 以下、本発明の実施形態を図面を参照して説明する。
 図1は、本発明による撮像装置の画角を出力するシステム(以下、単に出力システムと記す。)の一実施形態を示すブロック図である。本実施形態の出力システムは、撮像部10と、出力部20とを備えている。図1に例示する出力システムは、撮像部10を1台備えているが、撮像部の台数は1台に限られず、2台以上であってもよい。
 撮像部10は、ユーザにより天井や壁面等に設置され、撮影した映像を出力部20に通知する。撮像部10は、他の装置からの指示に基づいて画角や倍率などのカメラ姿勢を変更してもよい。ただし、本実施形態の撮像部10は、少なくとも自身が撮影した映像を出力部20に通知する機能を備えていればよい。撮像部10は、例えば、ビデオカメラなどにより実現される。
 また、撮像部10は、後述する第一映像出力部21が出力した映像(以下、第一の映像と記す。)を含む映像を撮影すると、撮影した映像、または、その映像の撮影状況を示すデータを出力部20に通知する。以下、撮像部10によって撮影された第一の映像を含む映像を撮影映像と記す。
 ここで、映像の撮影状況を示すデータは、撮影映像そのものであってもよく、撮影映像に第一の映像が含まれる(または、含まれない)ことを示す情報を含んでいてもよい。また、映像の撮影状況を示すデータは、撮影映像中に第一の映像がどのような位置に撮影されているかを示す情報や、後述する第二映像出力部22が出力する第二の映像が撮影映像の範囲内からずれたことを示す情報などを含んでいてもよい。
 撮像部10が出力部20に通知するタイミングは任意である。撮像部10は、例えば、第一の映像を検知したタイミングで、撮影映像、または、撮影状況を示すデータを出力部20に通知してもよい。また、撮像部10は、撮影映像、または、撮影状況を示すデータを定常的に出力部20に通知してもよい。
 出力部20は、第一映像出力部21と、第二映像出力部22とを含む。出力部20は、例えば、プロジェクタにより実現される。
 第一映像出力部21は、撮像部10による撮影領域に所定の映像(すなわち、第一の映像)を出力する。第一の映像は、撮像部10が撮影する位置の特定に用いられる映像である。
 第一映像出力部21は、具体的には、撮像部10による撮影領域に第一の映像を変化させながら出力する。ここで、撮像部10による撮影領域とは、撮像部10が現在撮影している場所だけでなく、撮像部10が撮影すると想定される(すなわち、撮影する可能性のある)場所を含む。以下、撮像部10が実際に撮影している領域のことを撮像部10の画角と記し、撮影領域とは区別して使用する。
 例えば、配置されているスクリーン上のいずれかの場所を撮像部10が撮影する場合、撮影領域は、実際に撮像部10が撮影しているスクリーンの一部だけでなく、撮影する可能性のあるスクリーン全体を含む。
 図2は、撮像部10の画角と第1の映像との関係の例を示す説明図である。図2に示す例では、撮影領域A1に第1の映像i1を表示している状態で、撮像部10が画角a1における映像を撮影して、出力部20に通知していることを示す。
 第一の映像は任意であるが、背景画像と区別できるように、所定のパターンを示す映像であることが望ましい。また、第一映像出力部21は、撮像部10が複数存在する可能性があることを考慮し、背景と区別でき、かつ、映像に撮像部10を特定する識別子を含めて出力してもよい。なお、第一映像出力部21が第一の映像を出力する具体例については後述する。
 第二映像出力部22は、撮像部10の画角を示す映像(以下、第二の映像と記すこともある。)を撮影領域に出力する。具体的には、第二映像出力部22は、撮像部10から通知される撮影映像、または、第一の映像の撮影状況を示すデータに応じて、第二の映像を撮影領域に出力する。すなわち、第二の映像が出力されている位置が、撮像部10の画角に相当する。
 第二映像出力部22は、例えば、撮像部10から通知される撮影映像、または、第一の映像の撮影状況を示すデータに応じて、撮像部10の画角の端部を判断する。例えば、第一映像出力部21が撮影領域に第一の映像を変化させながら出力する場合、撮像部10によって第一の映像が欠如されることなく撮影される場合と、撮像部10によって撮影される第一の映像の一部が欠如している場合とが存在する。そこで、第二映像出力部22は、撮影映像に含まれる第一の映像の態様がこのように変化した場合、その変化した位置を撮像部10の画角の端部と判断してもよい。
 そして、第二映像出力部22は、このように検知された複数の端部を結んで形成される領域を、撮像部10の画角と判断し、この画角に相当する位置に、第二の映像を出力してもよい。
 第二の映像は、撮像部10の画角が特定できる態様であれば、その内容は限定されない。第二映像出力部22は、例えば、撮像部10の画角の4隅を特定する映像を第二の映像として出力してもよく、各4隅を直線で結んだ四角形を示す映像を第二の映像として出力してもよい。他にも、第二映像出力部22は、画角を示す位置を塗りつぶすような映像を第二の映像として出力してもよい。さらに、第二映像出力部22は、撮像部10が複数存在
する可能性があることを考慮し、画角を示す映像に撮像部10を特定する識別子を含めて出力してもよい。
 また、第一映像出力部21が出力する第一の映像そのものを撮像部10の画角を示す映像(すなわち、第二の映像)としてもよい。この場合、第一映像出力部21が、第二映像出力部22が行う処理を行ってもよい。例えば、撮像部10が1台の場合であっても、撮像部10が複数存在する場合であっても、撮像部10ごとに映像の色を変えることで、第一の映像と第二の映像とを共有させることが可能である。なお、第一の映像と第二の映像とを分けることで、撮像部10が複数台存在する場合に、両画像の差異が明確になるため、より好ましい。
 図3は、撮影領域A1に第二の映像を表示した例を示す説明図である。図3に示す例では、第一映像出力部21が出力した第一の映像に基づいて撮像部10の画角が特定され、第二映像出力部22が、特定された位置に第二の映像を出力していることを示す。なお、上述するように、第一の映像i1を第二の映像i2に合わせて出力するようにしてもよい。
 第一の映像が第二の映像の出力に利用され、第一の映像と第二の映像のいずれも、出力部20が出力する映像である。すなわち、出力部20は、第一の映像を出力した位置を認識できるため、複雑なキャリブレーションを行うことなく、カメラの画角位置を特定できる。また、カメラの画角位置は、実際にカメラが撮影する位置に対応させて出力される。そのため、カメラの画角位置をユーザが感覚的に分かりやすい態様で出力できる。
 次に、第一映像出力部21が第一の映像を出力する具体例を説明する。図4は、第一の映像を変化させながら出力する第一の例を示す説明図である。ここでは、撮影領域A1に対し、画角a1が図4(a)に例示する関係にあるとする。また、第一の例では、画角a1よりも広い範囲に矩形の第一の映像が出力されるものとする。
 この状態に対して、第一映像出力部21が図4(b)に例示する第一の映像i2を出力すると、撮像部10によって映像a2が撮影される。図4に示す例では、映像a2は、第一の映像i2の一部に相当する。すなわち、図4に示す例では、撮像部10が撮影する領域全体に第一の映像i2の一部が含まれている。
 そこで、第一映像出力部21は、図4(c)の矢印で例示するように、所定の割合で第一の映像を縮小させていく。すると、図4(d)に示すように、第一の映像i3の端部e1が画角a1の内側で撮影されることになる。この場合、撮像部10が映像a3を撮影して、出力部20に通知すると、第二映像出力部22は、第一の映像i3の端部e1を判断し、その位置が画角a1の端部であると判断する。
 その後、第一映像出力部21は、端部e1以外の方向について第一の映像i3を再度縮小させていき、第二映像出力部22が同様に第一の映像i3の端部を検知することで、画角a1を判断する。
 図5は、第一の映像を変化させながら出力する第二の例を示す説明図である。図4に例示する場合と同様、撮影領域A1に対し、画角a1が図5(a)に例示する関係にあるとする。また、第二の例では、走査用の小さい映像が第一の映像として出力されるものとする。
 この状態に対して、第一映像出力部21は、図5(b)の破線で示すように、撮影領域を走査するように第一の映像i4を移動させながら出力する。第一の映像i4を移動させる方法は、規則的であってもよく、ランダムであってもよい。
 例えば、図5(b)に示す状態では、撮像部10は、映像a4を撮影する。ここでは、映像a4には、第一の映像i4は撮影されない。その後、図5(c)に例示するように第一の映像i4が画角a1の範囲に出力されると、撮像部10は、第一の映像i4を含む映像a5を撮影する。この映像a5が出力部20に通知されると、第二映像出力部22は、第一の映像i4が撮影された位置を画角a1の領域と判断する。
 その後、第一の映像i4による走査を繰り返すことで、第二映像出力部22は、画角a1の端部および画角a1の領域を判断する。
 なお、図5に示す例では、第一の映像に点のような走査用の小さい映像が用いられる場合を示したが、第一の映像に線状の映像が用いられてもよい。走査用の映像に線状の映像を用いる方が、点のような小さい映像を用いる場合に比べ、より効率的に画角a1の領域を判断できる。
 図6は、第一の映像を変化させながら出力する第三の例を示す説明図である。図4に例示する場合と同様、撮影領域A1に対し、画角a1が図6(a)に例示する関係にあるとする。また、第一の例では、第一映像出力部21が矩形の第一の映像を出力したが、第三の例では、第一映像出力部21が任意形状の第一の映像を出力する。
 この状態に対して、第一映像出力部21が図6(b)に例示する第一の映像i5を出力すると、撮像部10によって映像a6が撮影される。図6に示す例では、映像a6は、第一の映像i5の一部に相当する。すなわち、図6に示す例では、撮像部10が撮影する領域全体に第一の映像i5の一部が含まれている。
 そこで、第一映像出力部21は、図6(c)の矢印で例示するように、出力した第一の映像i5を任意の方向に変形させる。第一映像出力部21は、例えば、予め定めた第一の映像i5の外縁の複数の点を任意の方向に移動させ、移動後の各点を結ぶことで、第一の映像i5を変形させてもよい。
 すると、図6(d)に示すように、第一の映像i6の端部e2が画角a1の内側で撮影されることになる。この場合、撮像部10が映像a7を撮影して、出力部20に通知すると、第二映像出力部22は、第一の映像i6の端部e2を判断し、その位置が画角a1の端部であると判断する。
 その後、第一映像出力部21は、端部e2以外の部分について第一の映像i6を再度変形させ、第二映像出力部22が同様に第一の映像i6の端部を検知することで、画角a1を判断する。
 図7は、第一の映像を変化させながら出力する第四の例を示す説明図である。図4に例示する場合と同様、撮影領域A1に対し、画角a1が図7(a)に例示する関係にあるとする。
 また、第一の例では、画角a1よりも広い範囲に矩形の第一の映像が出力された場合を例示したが、第4の例では、画角a1の一部に矩形の第一の映像が出力されるものとする。すなわち、第一映像出力部21が図7(b)に例示する第一の映像i7を出力し、撮像部10によって映像a8が撮影されたとする。
 この場合、第一映像出力部21は、撮像部10が撮影している範囲に含まれる第一の映像i7と、第一映像出力部21が出力している第一の映像i7との差を解析することで、出力する第一の映像i7を変化させる。
 具体的には、第一映像出力部21は、画角a1と第一の映像i7の間に微小な隙間ができるように第一の映像i7を変形する。ここで、画角と第一の映像の間の差とは、画角の範囲を示す位置と第一の映像が表示された位置とのズレのことを意味する。画角a1と第一の映像i7の間に差(微小な隙間)がない場合には、第一の映像i7は画角よりも大きいと考えられるため、第一映像出力部21は、画角a1と第一の映像i7の間に差が生ずるまで第一の映像i7を小さくする。一方、画角a1と第一の映像i7の間に所定以上の差(隙間)がある場合には、第一映像出力部21は、画角a1と第一の映像i7の間の差が微小になるように、第一の映像i7を大きくする。
 図7に示す例は、第一の映像i7が四角形の場合の例である。図7(b)の撮影領域A1に第一の映像i7を出力させると、映像a8が得られる。映像a8における画角と第一の映像i7の差は、上辺では大きく、左右辺では少なく、下辺では無い。これらの差に基づき、第一映像出力部21は、第一の映像i7を変化させる。具体的には、第一映像出力部21は、上辺については上方向に大きく移動させ、左辺については左方向に微小移動させ、右辺については右方向に微小移動させ、下辺については上方向に大きく移動させる。図7(c)に例示する矢印が、この変形処理を示している。第一映像出力部21がこの第一の映像i7に対する変形処理を、画角a1と第一の映像i7の差が微小になるまで行うと、撮像部10によって映像a9が撮影されることになる。その結果、図7(d)に例示する第一の映像i8が出力される。
 第一の映像i7は、四角形以外の多角形でもよく、また、多角形以外の任意の形状でもよい。これらの場合も、第一映像出力部21は、変形処理を同様に行えばよい。具体的には、第一映像出力部21は、画角a1と第一の映像i7の間の差が大きい場合に膨張処理を施し、差が無い場合に縮小処理を施せばよい。
 以上、具体例を用いて、第一映像出力部21が第一の映像を出力する方法を説明したが、第一の映像を出力する方法は、上述する例に限定されない。また、第二映像出力部22が画角a1を判断する方法も、上述する方法に限定されない。例えば、撮影領域に画鋲などの特徴物が含まれる場合、第二映像出力部22は、第一の映像に加え、この特徴点を利用して画角a1を判断してもよい。
 第二映像出力部22が第二の映像を出力すると、第二の映像は撮像部10によって撮影されることになる。そこで、出力部20は、第二の映像を出力した後も撮像部10から撮影映像を定期的に受け取るようにしてもよい。そして、第一映像出力部21は、撮影映像中に撮影された第二の映像がずれている場合に、第一の映像を再度出力して、上述する処理を行うようにしてもよい。このようにすることで、撮像部10の姿勢を調整した場合も、その調整に伴う撮像部10の画角を確認することが可能になる。
 第一映像出力部21と、第二映像出力部22とは、プログラム(撮像装置の画角を出力するプログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、出力部20の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、第一映像出力部21および第二映像出力部22として動作してもよい。また、第一映像出力部21と、第二映像出力部22とは、それぞれが専用のハードウェアで実現されていてもよい。
 さらに、実際に映像を投影する装置と、映像を投影する制御を行う装置とが分離していてもよい。図8は、本発明による出力システムの他の例を示すブロック図である。図8に例示する出力システムは、撮像部10と、出力部40と、制御部30とを備えている。図8に例示する出力部40と制御部30とを併せたものが、図1に例示する出力部20に相当する。この場合、図1における第一映像出力部21が行う制御を、図8における第一映像制御部31が出力部40に対して行い、図1における第二映像出力部22が行う制御を、図8における第二映像制御部32が出力部40に対して行えばよい。
 この場合、第一映像制御部31と、第二映像制御部32とは、プログラム(撮像装置の画角を出力するプログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、制御部30の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、第一映像制御部31および第二映像制御部32として動作してもよい。
 このようにすることで、映像を出力する装置(出力部40)と、制御を行う装置(制御部30)とを、それぞれ別々に準備することが可能になる。制御部30は、例えば、パーソナルコンピュータなどにより実現される。また、出力部40は、プロジェクタ装置などにより実現される。
 次に、本実施形態の出力システムの動作を説明する。図9は、本実施形態の出力システムの動作例を示すフローチャートである。
 まず、第一映像出力部21は、撮像部10の撮影領域に第一の映像を出力する(ステップS1)。撮像部10は、画角に含まれる領域の映像を撮影し(ステップS2)、第一の映像を含む撮影映像を出力部20に通知する(ステップS3)。
 第二映像出力部22は、撮像部10から通知される撮影映像、または、第一の映像の撮影状況を示すデータに応じて、撮像部10の画角を判断する(ステップS4)。第二映像出力部22は、例えば、第一の映像の端部を検知できたか、撮像部10の画角と第一の映像の間の差が微小な隙間として撮影されているか、などにより撮像部10の画角を判断する。
 撮像部10の画角を判断できない場合(ステップS11におけるNo)、第一映像出力部21は、第一の映像を変化させ(ステップS12)、ステップS1以降の処理を繰り返す。
 一方、撮像部10の画角を判断できる場合(ステップS11におけるYes)、第二映像出力部22は、撮像部10の画角を特定し特定した撮像部10の画角に対応する位置に、第二の映像を出力する(ステップS5)。
 以上のように、本実施形態によれば、第一映像出力部21が、撮像部10が撮影する撮影領域に第一の映像を出力し、第二映像出力部22が、撮像部10の画角を示す第二の映像を撮影領域に出力する。よって、複雑なキャリブレーションを行うことなく、カメラの画角位置を感覚的に分かりやすい態様で出力できる。
 また、本実施形態では、撮像部10が1台の場合を説明した。なお、上述するように、撮像部10の台数は、2台以上であってもよい。図10は、本発明による出力システムのさらに他の実施形態を示すブロック図である。図10に例示する出力システムは、撮像部が2台(撮像部10a,10b)存在する場合の例である。撮像部が2台存在する場合も、上述する方法と同様の方法を用いて各撮像部の画角を出力することが可能である。
 具体的には、本実施形態では、第一の映像と第二の映像とをわけることで、複数の撮像部10の画角を出力する場合であっても一台の出力部20を利用して、各撮像部10の画角を確認できる。さらに、第一の映像を変化させながら出力する第二の例の場合、1台の出力部20が出力した走査用の小さい映像は、全ての撮像部10の画角を特定するために利用可能である。
 また、第一の映像と第二の映像を共有させてもよい。例えば、初期状態で、第一映像出力部21が撮影領域いっぱいに第一の映像を出力し、その後、撮像部10の画角に収まるまで第一の映像を縮小させてもよい。
 次に、本発明の概要を説明する。図11は、本発明による撮像装置の画角を出力する装置の概要を示すブロック図である。本発明による撮像装置の画角を出力する装置は、撮像装置(例えば、撮像部10)が撮影する撮影領域に第一の映像を出力する第一映像出力部81(例えば、第一映像出力部21)と、撮像装置の画角を示す第二の映像を撮影領域に出力する第二映像出力部82(例えば、第二映像出力部22)とを備えている。
 そのような構成により、複雑なキャリブレーションを行うことなく、カメラの画角位置を感覚的に分かりやすい態様で出力できる。
 具体的には、第二映像出力部82は、撮像装置による第一の映像の撮影状況を示すデータから撮像装置の画角を特定し、特定された画角に対応する撮影領域に第二の映像を出力する。
 第一映像出力部81は、撮像装置による第一の映像の撮影状況を示すデータに応じて、出力する第一の映像を変化させてもよい。また、第二映像出力部82は、変化した第一の映像の撮影状況を示すデータから撮像装置の画角を特定し、特定された画角に対応する撮影領域に第二の映像を出力してもよい。
 第一映像出力部81は、撮像装置が撮影している範囲に含まれる第一の映像と、出力した第一の映像との差を解析して、出力する第一の映像を変化させてもよい(例えば、図7参照)。また、第一映像出力部81は、撮像装置の画角よりも広い範囲に第一の映像を出力し、出力した第一の映像を縮小するように変化させてもよい(例えば、図4、図6参照)。
 また、第一映像出力部81は、撮影領域を走査するように第一の映像の位置を変化させてもよい。そして、第二映像出力部82は、変化した第一の映像の撮影状況を示すデータから撮像装置の画角を特定し、特定された画角に対応する撮影領域に第二の映像を出力してもよい(例えば、図5参照)。
 図12は、本発明による撮像装置の画角を出力するシステムの概要を示すブロック図である。本発明による撮像装置の画角を出力するシステムは、映像を出力する映像出力装置60(例えば、出力部40)と、映像出力装置60が出力する映像を制御する制御装置70(例えば、制御部30)とを備えている。
 制御装置70は、映像出力装置60に対し、撮像装置(例えば、撮像部10)が撮影する撮影領域に第一の映像を出力させる第一映像制御部71(例えば、第一映像制御部31)と、映像出力装置60に対し、撮像装置の画角を示す第二の映像を撮影領域に出力させる第二映像制御部72(例えば、第二映像制御部32)とを含む。
 なお、図13は、本発明による撮像装置の画角を出力するシステムに用いられる撮像装置の概要を示すブロック図である。図12に示す撮像装置は、第一の映像を含む映像を撮影した撮影映像を他の装置から受信して当該他の装置の画角を示す第二の映像を出力する出力装置に、前記第一の映像の撮影状況を示すデータを送信する送信部50(例えば、撮像部10)を備えている。
 これらの構成であっても、複雑なキャリブレーションを行うことなく、カメラの画角位置を感覚的に分かりやすい態様で出力できる。
 以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2012年6月8日に出願された日本特許出願2012-130958を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、撮像装置の画角位置を出力するシステムに好適に適用される。
 10,10a,10b 撮像部
 20 出力部
 21 第一映像出力部
 22 第二映像出力部
 30 制御部
 31 第一映像制御部
 32 第二映像制御部
 40 出力部

Claims (13)

  1.  撮像装置が撮影する撮影領域に第一の映像を出力する第一映像出力部と、
     前記撮像装置の画角を示す第二の映像を前記撮影領域に出力する第二映像出力部とを備えた
     ことを特徴とする撮像装置の画角を出力する装置。
  2.  第二映像出力部は、撮像装置による第一の映像の撮影状況を示すデータから当該撮像装置の画角を特定し、特定された画角に対応する撮影領域に第二の映像を出力する
     請求項1記載の撮像装置の画角を出力する装置。
  3.  第一映像出力部は、撮像装置による第一の映像の撮影状況を示すデータに応じて、出力する第一の映像を変化させ、
     第二映像出力部は、変化した第一の映像の撮影状況を示すデータから当該撮像装置の画角を特定し、特定された画角に対応する撮影領域に第二の映像を出力する
     請求項1または請求項2記載の撮像装置の画角を出力する装置。
  4.  第一映像出力部は、撮像装置が撮影している範囲に含まれる第一の映像と、出力した第一の映像との差を解析して、出力する第一の映像を変化させる
     請求項3記載の撮像装置の画角を出力する装置。
  5.  第一映像出力部は、撮像装置の画角よりも広い範囲に第一の映像を出力し、出力した第一の映像を縮小するように変化させる
     請求項3記載の撮像装置の画角を出力する装置。
  6.  第一映像出力部は、撮影領域を走査するように第一の映像の位置を変化させ、
     第二映像出力部は、変化した第一の映像の撮影状況を示すデータから当該撮像装置の画角を特定し、特定された画角に対応する撮影領域に第二の映像を出力する
     請求項1または請求項2記載の撮像装置の画角を出力する装置。
  7.  映像を出力する映像出力装置と、
     前記映像出力装置が出力する映像を制御する制御装置とを備え、
     前記制御装置は、
     前記映像出力装置に対し、撮像装置が撮影する撮影領域に第一の映像を出力させる第一映像制御部と、
     前記映像出力装置に対し、前記撮像装置の画角を示す第二の映像を前記撮影領域に出力させる第二映像制御部とを含む
     ことを特徴とする撮像装置の画角を出力するシステム。
  8.  第一の映像を含む映像を撮影した撮影映像を他の装置から受信して当該他の装置の画角を示す第二の映像を出力する出力装置に、前記第一の映像の撮影状況を示すデータを送信する送信部を備えた
     ことを特徴とする撮像装置。
  9.  撮像装置が撮影する撮影領域に第一の映像を出力し、
     前記撮像装置の画角を示す第二の映像を前記撮影領域に出力する
     ことを特徴とする撮像装置の画角を出力する方法。
  10.  撮像装置による第一の映像の撮影状況を示すデータから当該撮像装置の画角を特定し、特定された画角に対応する撮影領域に第二の映像を出力する
     請求項9記載の撮像装置の画角を出力する方法。
  11.  映像出力装置が出力する映像を制御する制御装置が、当該前記映像出力装置に対し、撮像装置が撮影する撮影領域に第一の映像を出力させ、前記撮像装置の画角を示す第二の映像を前記撮影領域に出力させる
     ことを特徴とする撮像装置の画角の出力を制御する方法。
  12.  コンピュータに、
     撮像装置が撮影する撮影領域に第一の映像を出力する第一映像出力処理、および、
     前記撮像装置の画角を示す第二の映像を前記撮影領域に出力する第二映像出力処理
    を実行させるためのプログラム。
  13.  コンピュータに、
     第二映像出力処理で、撮像装置による第一の映像の撮影状況を示すデータから当該撮像装置の画角を特定させ、特定された画角に対応する撮影領域に第二の映像を出力させる
     請求項12記載のプログラム。
PCT/JP2013/003189 2012-06-08 2013-05-20 撮像装置の画角を出力する装置、システム、方法およびプログラム WO2013183237A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014519820A JP6304029B2 (ja) 2012-06-08 2013-05-20 撮像装置の画角を出力する装置、システム、方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-130958 2012-06-08
JP2012130958 2012-06-08

Publications (1)

Publication Number Publication Date
WO2013183237A1 true WO2013183237A1 (ja) 2013-12-12

Family

ID=49711645

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003189 WO2013183237A1 (ja) 2012-06-08 2013-05-20 撮像装置の画角を出力する装置、システム、方法およびプログラム

Country Status (2)

Country Link
JP (1) JP6304029B2 (ja)
WO (1) WO2013183237A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135531A (ja) * 2016-01-27 2017-08-03 三菱電機ビルテクノサービス株式会社 防犯カメラ設置支援装置及びプログラム
US11431948B2 (en) 2020-01-20 2022-08-30 Panasonic Intellectual Property Management Co., Ltd. Position and size adjustment support method and position and size adjustment support device for display appratus and imaging appratus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259926A (ja) * 2005-03-15 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> 作業指示システムとそのプログラム
JP2007094661A (ja) * 2005-09-28 2007-04-12 Casio Comput Co Ltd プレゼンテーション制御装置およびプレゼンテーションシステム
JP2009010782A (ja) * 2007-06-28 2009-01-15 Fuji Xerox Co Ltd 画像処理装置及び制御プログラム
JP2011227600A (ja) * 2010-04-16 2011-11-10 Seiko Epson Corp 位置検出システム及びその制御方法、並びにプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5194723B2 (ja) * 2007-11-05 2013-05-08 カシオ計算機株式会社 投影装置、投影方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006259926A (ja) * 2005-03-15 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> 作業指示システムとそのプログラム
JP2007094661A (ja) * 2005-09-28 2007-04-12 Casio Comput Co Ltd プレゼンテーション制御装置およびプレゼンテーションシステム
JP2009010782A (ja) * 2007-06-28 2009-01-15 Fuji Xerox Co Ltd 画像処理装置及び制御プログラム
JP2011227600A (ja) * 2010-04-16 2011-11-10 Seiko Epson Corp 位置検出システム及びその制御方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017135531A (ja) * 2016-01-27 2017-08-03 三菱電機ビルテクノサービス株式会社 防犯カメラ設置支援装置及びプログラム
US11431948B2 (en) 2020-01-20 2022-08-30 Panasonic Intellectual Property Management Co., Ltd. Position and size adjustment support method and position and size adjustment support device for display appratus and imaging appratus

Also Published As

Publication number Publication date
JPWO2013183237A1 (ja) 2016-01-28
JP6304029B2 (ja) 2018-04-04

Similar Documents

Publication Publication Date Title
EP2426637B1 (en) Method for generating panoramic image
JP5088018B2 (ja) 画像処理装置及び制御プログラム
CN106605195B (zh) 通信设备和通信设备的控制方法
US20160162246A1 (en) Display control apparatus, control method thereof and storage medium
JP6525760B2 (ja) 撮像装置およびその制御方法およびプログラム
JP2016085380A (ja) 制御装置、制御方法、及び、プログラム
JP2019161397A (ja) 制御装置、プログラム、及び制御方法
CN114007053B (zh) 图像生成方法、图像生成系统和记录介质
WO2017203796A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5517705B2 (ja) 投影装置
JP6304029B2 (ja) 撮像装置の画角を出力する装置、システム、方法およびプログラム
JP2015192310A (ja) プロジェクションシステム、携帯機器、プログラム、及び、携帯機器の制御方法
JP2021061541A (ja) 制御装置、制御方法、投影システム、プログラムおよび記憶媒体
JP6980450B2 (ja) 制御装置、制御方法、及びプログラム
JP6172771B2 (ja) 画像表示装置、画像表示システムおよび画像制御方法
JP2014215304A (ja) 撮像装置
JP2013145949A (ja) 投影システム、および重畳画像の画合わせの調整方法
JP2010087613A (ja) プレゼンテーション画像配信システム
JP2008028481A (ja) 画像処理装置、遠隔画像処理システム及び画像処理方法
JP2005333628A (ja) カメラ制御装置およびこれを用いた監視カメラシステム
JP6647872B2 (ja) 映像投影システム、映像投影方法、及び映像投影プログラム
JP2015103918A (ja) 撮像装置及び撮像装置の制御方法
JP6128966B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2018207254A (ja) 撮像装置、制御方法、プログラム及び撮像システム
CN116471467A (zh) 信息处理设备、信息处理方法、摄像设备、存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13801406

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014519820

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13801406

Country of ref document: EP

Kind code of ref document: A1