WO2011096049A1 - カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置 - Google Patents

カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置 Download PDF

Info

Publication number
WO2011096049A1
WO2011096049A1 PCT/JP2010/051450 JP2010051450W WO2011096049A1 WO 2011096049 A1 WO2011096049 A1 WO 2011096049A1 JP 2010051450 W JP2010051450 W JP 2010051450W WO 2011096049 A1 WO2011096049 A1 WO 2011096049A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
installation position
visual field
position evaluation
model
Prior art date
Application number
PCT/JP2010/051450
Other languages
English (en)
French (fr)
Inventor
正芳 橋間
真一 佐沢
小林 弘樹
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2011552604A priority Critical patent/JP5136703B2/ja
Priority to PCT/JP2010/051450 priority patent/WO2011096049A1/ja
Publication of WO2011096049A1 publication Critical patent/WO2011096049A1/ja
Priority to US13/562,715 priority patent/US20120293628A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to a camera installation position evaluation program, a camera installation position evaluation method, and a camera installation position evaluation apparatus.
  • the conventional technique 1 for performing a simulation using a camera image and the conventional technique 2 for generating a three-dimensional model in which the field of view of the camera is expressed are employed.
  • the designer of the camera installation position first designates the installation position of the camera on the three-dimensional model of the device or structure in which the camera is embedded.
  • Prior art 1 considers camera characteristics such as angle of view and lens distortion for a virtual image acquired by the camera, assuming that the camera is installed at a position on the 3D model specified by the designer. And generate. Then, the related art 1 displays and outputs the generated virtual image. The designer looks at the displayed output image and confirms the field of view of the camera and the range in which the device or structure where the camera is installed is reflected in the field of view, and adjusts the camera installation position. Use to determine the camera installation position.
  • 3D CAD Computer Aided Design
  • Digital Mock-Up Digital Mock-Up
  • Computer Graphics Virtual Reality
  • etc. technologies for generating virtual camera images. To do.
  • the camera installation position designer first designates the camera installation position on the three-dimensional model of the device or structure in which the camera is embedded.
  • the conventional technique 2 assumes that the camera is installed at a position on the three-dimensional model designated by the designer, it generates a virtual visual field range model representing the visual field range of the camera according to the installation position.
  • the related art 2 displays and outputs the generated visual field range model.
  • the designer looks at the field-of-view range model displayed and output, confirms a blind spot region that narrows the field-of-view range of the camera, and determines the camera installation position by adjusting the camera installation position.
  • the designer confirms the displayed image and determines the camera installation position according to the procedure of determining whether the camera installation position is good or bad. decide.
  • the designer installs the camera according to the procedure of checking the visual field range model displayed and judging whether the camera installation position is good or bad. Determine the position.
  • Both the prior art 1 and the prior art 2 have a problem in that trial and error of the designer is required when designing the camera installation position.
  • the generated visual field range model includes a blind area. For this reason, it is a problem that it is difficult for the designer to accurately recognize the visual field range of the camera.
  • the disclosed technology has been made in view of the above, and provides a camera installation position evaluation program, a camera installation position evaluation method, and a camera installation position evaluation apparatus capable of efficiently or accurately determining the installation position of a camera.
  • the purpose is to provide.
  • the technology disclosed in the present application causes a computer to execute a setting procedure for setting a virtual plane orthogonal to the optical axis of a camera mounted on a camera mounting target. Furthermore, a generation procedure for generating a virtual camera image acquired by the camera using the data of the three-dimensional model of the camera-mounted object, the data of the virtual plane set by the setting procedure, and the parameters of the camera. Let it run. Further, a calculation procedure for calculating a boundary between the three-dimensional model and the virtual surface is executed on the camera image generated by the generation procedure.
  • the installation position of the camera can be determined efficiently or accurately without the need for trial and error by the designer when determining the installation position of the camera.
  • FIG. 1 is a diagram illustrating the camera installation position evaluation apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating the configuration of the camera installation position evaluation apparatus according to the second embodiment.
  • FIG. 3 is a perspective view of the model according to the second embodiment.
  • FIG. 4 is a side view of the model according to the second embodiment.
  • FIG. 5 is a diagram used for explaining setting of the background surface according to the second embodiment.
  • FIG. 6 is a diagram illustrating an example of a background surface according to the second embodiment.
  • FIG. 7 is a diagram illustrating an example of a camera image according to the second embodiment.
  • FIG. 8 is a diagram used for explaining the first visual field range calculation unit according to the second embodiment.
  • FIG. 9 is a diagram used for explaining the first visual field range calculation unit according to the second embodiment.
  • FIG. 9 is a diagram used for explaining the first visual field range calculation unit according to the second embodiment.
  • FIG. 10 is a diagram used for explaining the visual field model generation unit according to the second embodiment.
  • FIG. 11 is a diagram used for explaining the visual field model generation unit according to the second embodiment.
  • FIG. 12 is a diagram used for explaining the second visual field range calculation unit according to the second embodiment.
  • FIG. 13 is a diagram illustrating a processing flow of the camera installation position evaluation apparatus according to the second embodiment.
  • FIG. 14 is a diagram used for explaining the processing of the camera installation position evaluation apparatus according to the second embodiment.
  • FIG. 15 is a diagram illustrating a process flow of the camera installation position evaluation apparatus according to the second embodiment.
  • FIG. 16 is a diagram illustrating an example of a computer that executes a camera installation position evaluation program.
  • FIG. 1 is a diagram illustrating a camera installation position evaluation apparatus according to the first embodiment.
  • the camera installation position evaluation device 1 includes a setting unit 2, a generation unit 3, and a calculation unit 4.
  • the setting unit 2 sets a virtual plane orthogonal to the optical axis of the camera mounted on the camera mounting target.
  • the virtual plane is a virtual plane that is orthogonal to the optical axis of the camera.
  • the generation unit 3 generates a virtual camera image acquired by the camera using the data of the three-dimensional model of the camera mounted object, the virtual plane data set by the setting unit 2 and the camera parameters.
  • the calculation unit 4 calculates the boundary between the three-dimensional model of the camera-mounted object and the virtual plane set by the setting unit 2 on the camera image generated by the generation unit 3.
  • the camera installation position evaluation device 1 assumes that the camera has been photographed after setting a virtual plane orthogonal to the optical axis in the optical axis direction of the camera mounted on the camera mounting object. A virtual camera image is generated. Therefore, the camera installation position evaluation apparatus 1 can obtain data representing how the camera-mounted object is reflected in the visual field range of the camera. The camera installation position evaluation apparatus 1 calculates the boundary between the three-dimensional model of the camera mounted object and the virtual plane set by the setting unit 2 on the virtual camera image. The visual field range of the camera at the current camera installation position can be obtained quantitatively. For this reason, the camera installation position evaluation apparatus 1 according to the first embodiment does not require trial and error by the designer when determining the camera installation position, and efficiently and more accurately determines the camera installation position. it can.
  • FIG. 2 is a diagram illustrating the configuration of the camera installation position evaluation apparatus according to the second embodiment.
  • the camera installation position evaluation apparatus 100 according to the second embodiment includes a three-dimensional model input unit 101, a camera installation position input unit 102, and a camera characteristic data input unit 103.
  • the camera installation position evaluation apparatus 100 includes a background plane generation unit 104, a 3D model management unit 105, and a 3D model display unit. Furthermore, as shown in FIG. 2, the camera installation position evaluation apparatus 100 includes a camera image generation unit 107, a camera image display unit 108, a first visual field range calculation unit 109, a visual field model generation unit 110, and a second visual field range calculation unit 111. And a visual field information output unit 112.
  • the background plane generation unit 104, the camera image generation unit 107, the camera image display unit 108, the first visual field range calculation unit 109, the visual field model generation unit 110, the second visual field range calculation unit 111, and the visual field information output unit 112 are, for example, Electronic circuits and integrated circuits.
  • Examples of the electronic circuit include a CPU (Central Processing Unit) and an MPU (Micro Processing Unit), and examples of the integrated circuit include an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array).
  • the 3D model input unit 101 inputs a 3D model of the camera mounted object.
  • the three-dimensional model includes shape data, position data, and color data, and is expressed using a general-purpose format language such as VRML (Virtual Reality Modeling Language).
  • the camera mounting target means an object on which the camera is mounted, for example, a structure such as a vehicle or a building, or a robot. It is assumed that the three-dimensional model includes data on the plane position of the floor surface in the world coordinate system.
  • the world coordinate system is a reference coordinate system for defining the position of an object in a three-dimensional space, and has a coordinate axis including an X axis, a Y axis, and a Z axis, and an origin.
  • the X axis and the Y axis are coordinate axes orthogonal to each other on the floor surface.
  • the Z axis is a coordinate axis extending in the vertical direction with respect to the floor surface from the intersection of the X axis and the Y axis.
  • the shape data has the number of triangle polygons and the coordinates of the vertex positions in the model coordinate system of the triangle polygons.
  • the above-described three-dimensional model of the camera-mounted object is created by combining a plurality of triangular polygons based on the coordinates of each vertex position.
  • the model coordinate system is a local coordinate system defined for each three-dimensional model, and has an X axis, a Y axis, and a Z axis that are the origin and three coordinate axes orthogonal to each other.
  • the camera installation position input unit 102 inputs a plurality of samples as camera installation positions and camera posture candidates.
  • the plurality of samples is, for example, a combination of position vectors and rotation vectors created by changing the position and orientation of the camera coordinate system.
  • the camera coordinate system is a local coordinate system defined for each camera.
  • the origin is the center of the camera lens
  • the Z axis is the axis in the optical axis direction of the camera
  • the origin is parallel to the horizontal axis of the imaging surface.
  • An X axis that is a direction axis
  • a Y axis that is an axis that passes through the origin and is orthogonal to the X axis.
  • the installation position of the camera is obtained by the position vector value of the origin of the camera coordinate system.
  • the camera posture is obtained by rotation vector values of the X-axis, Y-axis, and Z-axis of the camera coordinate system.
  • the rotation vector corresponds to, for example, a roll angle, a pitch angle, a yaw angle, and an Euler angle.
  • the roll angle is an angle indicating the tilt of the camera in the horizontal direction with respect to the camera mounted object.
  • the pitch angle is an angle indicating the tilt of the camera in the vertical direction with respect to the camera mounted object.
  • the yaw angle is a rotation angle of the camera with respect to the Z axis, for example.
  • the Euler angle is a combination of rotation angles of the coordinate axes in the camera coordinate system.
  • the camera characteristic data input unit 103 inputs parameters necessary for generating a camera image such as a camera angle of view, a focal length, and an imaging surface size.
  • FIG. 3 is a perspective view of a model according to the second embodiment.
  • FIG. 4 is a side view of the model according to the second embodiment.
  • 3 in FIG. 3 indicates a three-dimensional model of the camera mounted object
  • 300 in FIG. 3 indicates a model of the camera mounted on the camera mounted object.
  • 3 indicates a camera coordinate system
  • 32 in FIG. 3 indicates a model coordinate system.
  • 4 indicates a three-dimensional model of the camera mounting object
  • 300 of FIG. 4 indicates a camera model mounted on the camera mounting object.
  • 4 in FIG. 4 indicates the floor surface on which the camera mounted object is placed
  • 42 in FIG. 4 indicates the field of view of the camera
  • 43 in FIG. 4 indicates the optical axis of the camera.
  • the three-dimensional model input unit 101 inputs a three-dimensional model of the camera-mounted object
  • the three-dimensional model dynamically defines a model coordinate system 32 as shown in FIG.
  • the camera installation position input unit 102 dynamically defines the camera coordinate system 31 for each of a plurality of samples input as camera installation position and orientation candidates.
  • the data of the camera viewing range 42 and the optical axis 43 of the camera as shown in FIG.
  • the background plane generation unit 104 sets a virtual background plane that is orthogonal to the optical axis of the camera mounted on the camera mounting target.
  • FIG. 5 is a diagram used for explaining setting of the background surface according to the second embodiment.
  • FIG. 5 shows a three-dimensional model of the camera-mounted object and a side view of the state of the installed camera as viewed from the side.
  • 5 in FIG. 5 indicates a three-dimensional model of the camera mounted object
  • 300 in FIG. 5 indicates a camera model
  • 51 in FIG. 5 indicates a bounding box
  • 52 in FIG. 5 indicates a background surface.
  • 5 shows a field of view range of the camera
  • 54 of FIG. 5 shows the optical axis of the camera.
  • the bounding box is a rectangular area expressed by a boundary line surrounding the three-dimensional model.
  • the background plane generation unit 104 first uses the 3D model data of the camera-mounted object input by the 3D model input unit 101 described later to bind the 3D model bounding box. 51 is calculated. Next, the background plane generation unit 104 uses the data on the camera installation position input by the camera installation position input unit 102 and the data on the camera characteristics input by the camera characteristic data input unit 103 to Calculate the installation position and the optical axis direction of the camera. The background surface generation unit 104 calculates a plane that is perpendicular to the optical axis 54 of the camera and passes through the vertex of the bounding box 51, and is farthest from the starting point of the optical axis 54 of the camera among the calculated planes. A plane is set as the background surface 52.
  • the starting point of the optical axis 54 of the camera is, for example, the center of a lens included in the camera, so-called optical center.
  • the background surface 52 is not limited to a flat surface.
  • the background surface can be a spherical surface.
  • the background surface 52 is not limited to a plane orthogonal to the optical axis, and a background surface defining local coordinates of the plane can also be used.
  • FIG. 6 is a diagram illustrating an example of a background surface according to the second embodiment.
  • 6 in FIG. 6 indicates a background surface
  • 62 in FIG. 6 indicates an axis parallel to the X axis of the camera coordinate system
  • 63 in FIG. 6 indicates an axis parallel to the Y axis of the camera coordinate system
  • 64 in FIG. Indicates an intersection with the Z axis of the camera coordinate system.
  • the background surface generation unit 104 uses a color different from the color used for the three-dimensional model of the camera-mounted object, for example, a lattice pattern having lattice lines at equal intervals on the background surface 61 as shown in FIG. Paste.
  • the background surface generation unit 104 uses a background surface coordinate system in which the coordinate axis in the optical axis direction of the camera is the Z axis, the horizontal direction of the lattice pattern shown in FIG. 6 is the X axis 62, and the vertical direction of the lattice pattern is the Y axis 63. Set to 61.
  • the 3D model management unit 105 manages 3D model data, background surface data, and field-of-view range model data of the camera-mounted object.
  • the 3D model management unit 105 is a storage unit such as a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, and includes 3D model data, background data, and field-of-view range models. Store the data.
  • the 3D model display unit 106 displays and outputs the 3D model data, background surface data, and field-of-view range model data of the camera mounted object managed by the 3D model management unit 105 on a display or a monitor.
  • the camera image generation unit 107 generates a virtual camera image acquired by the camera using the data of the 3D model of the camera mounted object, the data of the background surface, and the parameters of the camera mounted on the camera mounted object. To do. For example, the camera image generation unit 107 acquires the data of the 3D model and the data of the background surface of the camera mounted object from the 3D model management unit 105. Further, the camera image generation unit 107 acquires parameters such as the angle of view, the focal length, and the imaging surface size of the camera input by the camera characteristic data input unit 103. Then, the camera image generation unit 107 generates a virtual camera image using a known technique such as projective transformation.
  • FIG. 7 is a diagram illustrating an example of a camera image according to the second embodiment.
  • FIG. 7 shows a camera image generated by central projection.
  • 7 in FIG. 7 indicates a camera image
  • 72 in FIG. 7 indicates a coordinate system in the camera image
  • 73 in FIG. 7 indicates a three-dimensional model of the camera-mounted object reflected in the camera image
  • 74 in FIG. Indicates the background.
  • a region excluding a region in which a three-dimensional model of the camera-mounted object is reflected from a region corresponding to the background surface 74 in the camera image is referred to as a visual field region.
  • FIG. 7 shows a visual field region generated by central projection.
  • 7 in FIG. 7 indicates a camera image
  • 72 in FIG. 7 indicates a coordinate system in the camera image
  • 73 in FIG. 7 indicates a three-dimensional model of the camera-mounted object reflected in the camera image
  • 74 in FIG. Indicates the background.
  • the camera image generation unit 107 completes the generation of the camera image by setting a coordinate system 72 in the camera image for the calculated captured image of the camera.
  • a coordinate system 72 in the camera image for the calculated captured image of the camera.
  • the camera image display unit 108 displays and outputs the camera image generated by the camera image generation unit 107 on a display or a monitor.
  • the first visual field range calculation unit 109 calculates data for specifying the visual field range of the camera on the virtual background surface based on the camera image.
  • FIG. 8 is a diagram used for explaining the first visual field range calculation unit according to the second embodiment.
  • 8 in FIG. 8 indicates a camera image
  • 82 in FIG. 8 indicates a background surface on the camera image
  • 83 in FIG. 8 indicates an object mounted on the camera
  • 84 in FIG. 8 indicates a boundary line of the visual field area
  • Reference numerals 85 and 86 of 8 denote coordinate axes of the coordinate system of the camera image.
  • 8 indicates a lattice line in the same direction as the coordinate axis 85
  • 88 in FIG. 8 indicates an intersection of the boundary line 84 and the lattice line 87.
  • the first visual field range calculation unit 109 first calculates the camera mounting target from the background surface 82 on the camera image based on the difference between the color set on the background surface and the color set on the camera mounting target object. An area corresponding to the three-dimensional model of the object 83 is excluded. Thereafter, the first visual field range calculation unit 109 extracts the edge of the camera image from which the region corresponding to the three-dimensional model of the camera-mounted object 83 is excluded, thereby corresponding to the three-dimensional model of the camera-mounted object 83. A boundary line 84 between the region and the visual field region is detected. The first visual field range calculation unit 109 detects an intersection 88 between the boundary line 84 of the visual field region and the lattice line 87. Similarly, the first visual field range calculation unit 109 detects all the intersections between the grid lines set on the background surface and the boundary lines 84.
  • FIG. 9 is a diagram used for explaining the first visual field range calculation unit according to the second embodiment.
  • 9 in FIG. 9 indicates the background surface
  • 92 in FIG. 9 indicates the imaging surface of the camera
  • 93 in FIG. 9 indicates the lens center of the camera, so-called optical center
  • 94 in FIG. 9 indicates a point on the imaging surface.
  • 9 in FIG. 9 indicates a point on the background surface.
  • the imaging surface 92 shown in FIG. 9 is a surface on which the camera image 81 shown in FIG. 8 is taken.
  • the first visual field range calculation unit 109 first converts the position of the intersection detected on the camera image into a three-dimensional position on the imaging surface 92.
  • the first visual field range calculation unit 109 calculates the position on the background surface corresponding to the three-dimensional position on the imaging surface 92 by projective transformation of the three-dimensional position of the intersection on the imaging surface 92.
  • the first visual field range calculation unit 109 calculates the position of the point 95 on the background surface corresponding to the point 94 by projective transformation of the three-dimensional position of the point 94 on the imaging surface 92.
  • the 1st visual field range calculation part 109 calculates the position on the background surface corresponding to all the intersections detected on the camera image.
  • the coordinate values of the positions on the background surface corresponding to all the intersections detected on the camera image are data for specifying the visual field range of the camera on the virtual background surface.
  • a smooth curve connecting positions on the background surface corresponding to all intersections detected on the camera image represents a boundary between the background surface and the three-dimensional model on the camera image.
  • the visual field model generation unit 110 generates a three-dimensional shape indicating the visual field region of the camera using the positions on the background surface corresponding to all the intersections detected on the camera image.
  • 10 and 11 are diagrams used for explaining the visual field model generation unit according to the second embodiment.
  • 10-1 in FIG. 10 indicates the center of the lens of the camera
  • 10-2 in FIG. 10 indicates the shape of the visual field region on the imaging surface
  • 10-3 in FIG. 10 indicates the visual field region on the background surface. Show shape.
  • 11-1 in FIG. 11 indicates the center of the lens of the camera
  • 11-2 in FIG. 11 indicates the shape of the visual field area on the background surface
  • the visual field model generation unit 110 based on the position on the background surface corresponding to all the intersections detected on the camera image and the position of each vertex of the background surface, The shape 10-3 of the upper visual field is obtained. For example, by connecting the coordinates indicating the three-dimensional position on the background surface corresponding to all the intersections detected on the camera image and the coordinates of the three-dimensional position indicating the position of each vertex of the background surface, Find the shape of the field of view above. Then, as shown in FIG. 11, the visual field model generation unit 110 generates a three-dimensional shape 11-3 having the center 11-1 of the camera lens as a vertex and the shape of the visual field region 11-2 on the background surface as a bottom surface. Ask. This three-dimensional shape 11-3 is also called a visual field range model.
  • the second field-of-view range calculation unit 111 determines the shape of the field of view on the floor using a three-dimensional shape with the center of the camera lens as the apex and the shape of the field of view on the background as the bottom, that is, the field of view model. calculate.
  • FIG. 12 is a diagram used for explaining the second visual field range calculation unit according to the second embodiment. 12-1 in FIG. 12 indicates the center of the lens of the camera, 12-2 in FIG. 12 indicates a field-of-view range model, 12-3 in FIG. 12 indicates a plane model of the floor surface, and 12-4 in FIG. The shape of the visual field area on the floor is shown.
  • the second visual field range calculation unit 111 converts the position of the visual field range model belonging to the camera coordinate system to the position of the model coordinate system to which the three-dimensional model of the camera mounted object belongs. Further, the second field-of-view range calculation unit 111 converts the position of the field-of-view range model into the position of the world coordinate system to which the floor plane model belongs. The second visual field range calculation unit 111 can also convert the position of the visual field range model belonging to the camera coordinate system at a time into the position of the world coordinate system to which the plane model of the floor belongs.
  • the second field-of-view range calculation unit 111 sets the floor model 12-3 using the input floor data. Subsequently, the second visual field range calculation unit 111 obtains a straight line 12-2 connecting the center 12-1 of the camera lens and each vertex of the shape of the visual field region on the background surface. Then, the second field-of-view range calculation unit 111, for example, as shown in FIG. 12 based on the intersection of the straight line connecting the center of the camera lens and each vertex of the shape of the field-of-view region on the background surface and the floor surface. In this way, the shape 12-4 of the visual field region on the floor plane model 12-3 is obtained.
  • the camera installation position evaluation apparatus 100 obtains, for each sample, the shape of the visual field area on the plane model of the floor for a plurality of samples with respect to the camera installation position and orientation input by the camera installation position input unit 102.
  • the visual field information output unit 112 outputs an optimal solution for the installation position and orientation of the camera based on the area formed by the visual field area of the camera projected on the floor model. For example, it is output as an optimal solution for the installation position and orientation of the camera when the area formed by the visual field area of the camera projected on the floor model is maximized.
  • position corresponds to a coordinate value in a corresponding coordinate system.
  • FIG. 13 is a diagram illustrating a processing flow of the camera installation position evaluation apparatus according to the second embodiment.
  • a plurality of candidates for the camera installation position and orientation are input, a camera shooting range is calculated for the input candidates, and an optimal solution is extracted based on the calculation result. Indicates.
  • the processing by the camera installation position evaluation apparatus 100 shown in FIG. 13 is executed for each of a plurality of samples input by the camera installation position input unit 102 as camera installation position and orientation candidates.
  • the plurality of samples are, for example, coordinate values corresponding to the camera installation position in the camera coordinate system input for each camera to be installed, coordinate axes in the camera coordinate system corresponding to the camera roll angle, and the like.
  • the rotation beltle value is, for example, coordinate values corresponding to the camera installation position in the camera coordinate system input for each camera to be installed, coordinate axes in the camera coordinate system corresponding to the camera roll angle, and the like.
  • the camera installation position input unit 102 calculates the camera installation position and orientation for each sample. (Step S1302).
  • the camera installation range is specified from the minimum value “X1” to the maximum value “X2” of the tilt angle of the camera.
  • the tilt angle is an angle indicating how many times the optical axis of the camera is tilted downward from the horizontal direction.
  • “N” is designated as the number of simulation samples. N is a positive integer, and simulation means a simulation for calculating the photographing range of the camera.
  • the tilt angle of the camera corresponding to the i-th sample is represented by X1 + (X2-X1) / Ni.
  • the background surface generation unit 104 sets a virtual background surface for each sample behind the three-dimensional model of the camera-mounted object (step S1303).
  • the camera image generation unit 107 generates a camera image for each sample (step S1304).
  • the camera installation position evaluation apparatus 100 executes a visual field area calculation process on the floor surface (step S1305).
  • the visual field area calculation process corresponding to step S1305 will be described later with reference to FIG.
  • the visual field information output unit 112 calculates the visual field area “A” on the floor and the shortest distance “B” from the camera-mounted object to the visual field on the floor (step S1306).
  • FIG. 14 is a diagram used for explaining the processing of the camera installation position evaluation apparatus according to the second embodiment.
  • 14-1 in FIG. 14 indicates the floor surface
  • 14-2 in FIG. 14 indicates a visual field region on the floor surface
  • 14-3 in FIG. 14 indicates a three-dimensional model of the camera mounted object
  • 14 in FIG. -4 indicates the shortest distance between the visual field region on the floor surface and the three-dimensional model of the camera-mounted object.
  • the visual field area “A” calculated by the visual field information output unit 112 corresponds to the area 14-2 shown in FIG. 14, and the shortest distance “B” calculated by the visual field information output unit 112 is 14 ⁇ shown in FIG. Corresponds to a distance of 4.
  • the visual field information output unit 112 calculates “uA-vB” for each sample (step S1307).
  • U and v are arbitrarily set weighting factors. Then, the visual field information output unit 112 identifies the sample when “uA-vB” is maximum, extracts the installation position and orientation of the camera corresponding to the identified sample as an optimal solution (step S1308), and performs processing. finish.
  • FIG. 15 is a diagram illustrating a process flow of the camera installation position evaluation apparatus according to the second embodiment.
  • the first visual field range calculation unit 109 calculates the visual field region of the camera on the background surface from the camera image (step S1501).
  • the first field-of-view range calculation unit 109 detects the boundary line of the camera field of view on the background surface (step S1502), and the intersection “C 1 ... Between the detected boundary line and the grid line on the background surface.
  • C n is detected (step S1503). Note that n corresponds to a positive integer corresponding to the number of intersections. If the number of intersections is 10, it will be expressed as “C 10 ”.
  • the visual field model generation unit 110 converts the positions of the intersections “C 1 to C n ” on the camera image into positions on the imaging surface (step S1504). Then, the visual field model generation unit 110 calculates a position on the background surface corresponding to the position of the intersections “C 1 to C n ” on the imaging surface by projective transformation (step S1505).
  • the second visual field range calculation unit 111 calculates the visual field range region on the background surface using the positions of the intersections “C 1 to C n ” on the background surface (step S1506). Then, the second visual field range calculation unit 111 calculates the visual field region shape on the floor surface based on the center position of the camera lens and the visual field region shape on the background surface (step S1507), and the visual field on the floor surface.
  • the area calculation process ends.
  • the camera installation position evaluation apparatus 100 sets a virtual plane orthogonal to the optical axis in the optical axis direction of the camera mounted on the camera mounting target.
  • a virtual camera image is generated when it is assumed that the image is taken by the camera.
  • the camera installation position evaluation apparatus 100 calculates the boundary between the three-dimensional model of the camera mounted object and the virtual plane set by the setting unit 2, the camera installation position at the current camera installation position is calculated based on this boundary.
  • the visual field range can be obtained quantitatively. For this reason, it is not necessary to perform trial and error by the designer when determining the installation position of the camera. For example, the installation position of the camera that maximizes the field of view of the camera can be determined efficiently and more accurately. .
  • the camera field of view on the floor surface on which the camera mounted object is arranged is calculated using a three-dimensional model representing the camera field of view, the image actually captured by the camera is calculated.
  • a corresponding field of view can be provided to the designer.
  • the visual field area of the camera can be efficiently calculated from the generated virtual camera image.
  • each component of the camera installation position evaluation apparatus 100 shown in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of the camera installation position evaluation apparatus 100 is not limited to the illustrated one.
  • the first visual field range calculation unit 109 and the second visual field range calculation unit 111 are functionally or physically integrated. To do.
  • all or a part of the camera installation position evaluation apparatus 100 can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads, usage conditions, and the like.
  • this camera installation position evaluation method includes a setting step of setting a virtual background plane orthogonal to the optical axis of the camera mounted on the camera mounting target.
  • This setting step corresponds to the processing executed by the background plane generation unit 104 in FIG.
  • this camera installation position evaluation method uses a virtual three-dimensional model data of a camera-mounted object, a virtual background plane data set by a setting step, and a camera parameter.
  • the camera installation position evaluation method includes a calculation step of calculating a boundary between the three-dimensional model of the camera-mounted object and the virtual background surface on the camera image generated by the generation step. This calculation step corresponds to the processing executed by the first visual field range calculation unit 109 in FIG.
  • FIG. 16 is a diagram illustrating an example of a computer that executes a camera installation position evaluation program.
  • the computer 400 functioning as the camera installation position evaluation apparatus 100 includes an input device 401, a monitor 402, a RAM (Random Access Memory) 403, and a ROM (Read Only Memory) 404.
  • the computer 400 includes a CPU (Central Processing Unit) 405 and an HDD (Hard Disk Drive) 406.
  • the input device 401 is, for example, a keyboard or a mouse.
  • the monitor 402 realizes a pointing device function in cooperation with a mouse which is the input device 401.
  • the monitor 402 is a display device that displays various kinds of information, for example, a three-dimensional model image, and can be substituted by a display, a touch panel, or the like.
  • the pointing device function is not limited to the case where the pointing device function is realized by the mouse as the input device 401, and the pointing device function may be realized by another input device such as a touch pad.
  • an electronic circuit such as MPU (Micro Processing Unit), an integrated circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array) can be used.
  • an electronic circuit such as MPU (Micro Processing Unit), an integrated circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array) can be used.
  • a semiconductor memory element such as a flash memory can be used.
  • the computer 400 connects the input device 401, the monitor 402, the RAM 403, the ROM 404, the CPU 405, and the HDD 406 to each other via the bus 407.
  • the HDD 406 stores a camera installation position evaluation program 406a that exhibits the same function as that of the camera installation position evaluation apparatus 100 described above. Note that the camera installation position evaluation program 406a can be appropriately distributed and stored in a storage unit of another computer that is communicably connected via a network.
  • the camera installation position evaluation program 406a functions as a camera installation position evaluation process 405a as shown in FIG.
  • the camera installation position evaluation process 405a expands various data 403a to an area allocated in the RAM 403, and executes various processes based on the expanded various data 403a.
  • the camera installation position evaluation process 405a includes, for example, processing corresponding to processing executed by the background surface generation unit 104 illustrated in FIG.
  • the camera installation position evaluation process 405a includes, for example, processing corresponding to the processing executed by the camera image generation unit 107 illustrated in FIG.
  • the camera installation position evaluation process 405a includes, for example, processing corresponding to processing executed by the camera image display unit 108 illustrated in FIG.
  • the camera installation position evaluation process 405a includes, for example, processing corresponding to the processing executed by the first visual field range calculation unit 109 illustrated in FIG.
  • the camera installation position evaluation process 405a includes, for example, processing corresponding to the processing executed by the visual field model generation unit 110 illustrated in FIG.
  • the camera installation position evaluation process 405a includes, for example, processing corresponding to the processing executed by the second visual field range calculation unit 111 illustrated in FIG. Further, the camera installation position evaluation process 405a includes, for example, a process corresponding to the process executed by the visual field information output unit 112 illustrated in FIG.
  • the camera installation position evaluation program 406a is not necessarily stored in the HDD 406 from the beginning.
  • each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 400. Then, the computer 400 may read and execute each program from these.
  • a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer 400.
  • the computer 400 may read and execute each program from these.
  • each program is stored in “another computer (or server)” connected to the computer 400 via a public line, the Internet, a LAN, a WAN, or the like. Then, the computer 400 may read and execute each program from these.

Landscapes

  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 カメラ設置位置評価装置1は、設定部2、生成部3および算出部4を有する。設定部2は、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する。なお、仮想面とは、カメラの光軸に直交する仮想的な平面である。生成部3は、カメラ搭載対象物の3次元モデルのデータ、設定部2により設定される仮想面のデータおよびカメラのパラメータを用いて、カメラにより取得される仮想的なカメラ画像を生成する。生成部3により生成されたカメラ画像上で、カメラ搭載対象物の3次元モデルと設定部2により設定される仮想面との境界を算出する。よって、カメラ設置位置評価装置1は、この境界を元に、現在のカメラ設置位置におけるカメラの視野範囲を定量的に得られる。

Description

カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置
 この発明は、カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置に関する。
 従来、ロボットなどに搭載する環境計測カメラや建物に設置する監視カメラなど、機器や構造物、移動体などに組み込むカメラの設置位置の決定に関する技術が種々提案されている。
 ところで、機器や構造物などにカメラを埋め込んで設置する場合、カメラを隠すために深く埋め込む方が望ましい。しかし、機器や構造物などにカメラを深く埋め込むと、カメラの視野範囲の中に、機器や構造物などが写り込んでしまう。カメラの設置位置を決定する場合には、カメラの視野範囲の中から、機器や構造物などが写り込む範囲をできるだけ少なくしたい。そこで、カメラの設置位置を決定する場合に、例えば、カメラ画像を用いたシミュレーションを行う従来技術1や、カメラの視野範囲が表現された3次元モデルを生成する従来技術2が採用されている。
 上述した従来技術1を用いてカメラの設置位置を決定する場合、カメラ設置位置の設計者は、まず、カメラを埋め込む機器や構造物の3次元モデル上でカメラの設置位置を指定する。従来技術1は、設計者から指定された3次元モデル上の位置にカメラが設置されたと仮定した場合に、カメラにより取得される仮想的な画像を、画角やレンズ歪などのカメラ特性を考慮して生成する。そして、従来技術1は、生成した仮想的な画像を表示出力する。設計者は、表示出力された画像を見て、カメラの視野範囲や、カメラが設置される機器や構造物などが視野範囲への写り込む範囲を確認し、カメラの設置位置を調整するという手順でカメラの設置位置を決定する。なお、仮想的なカメラ画像を生成する技術としては、3次元CAD(Computer Aided Design)システムやデジタルモックアップ(Digital Mock-Up)、コンピュータグラフィクス(Computer Graphics)やバーチャルリアリティ(Virtual Reality)などが存在する。
 また、上述した従来技術2を用いてカメラの設置位置を決定する場合、カメラ設置位置の設計者は、まず、カメラを埋め込む機器や構造物の3次元モデル上でカメラの設置位置を指定する。従来技術2は、設計者から指定された3次元モデル上の位置にカメラが設置されたと仮定した場合に、この設置位置に応じたカメラの視野範囲を表わす仮想的な視野範囲モデルを生成する。そして、従来技術2は、生成した視野範囲モデルを表示出力する。設計者は、表示出力された視野範囲モデルを見て、カメラの視野範囲を狭める死角領域を確認し、カメラの設置位置を調整するという手順でカメラの設置位置を決定する。
特開2009-105802号公報
 しかしながら、上述した従来技術1を用いてカメラ設置位置を決定する場合、設計者は、表示出力される画像を確認して、カメラの設置位置の良し悪しを判断するという手順でカメラの設置位置を決定する。同様に、上述した従来技術2を用いてカメラ設置位置の設計を行う場合、設計者は、表示出力される視野範囲モデルを確認してカメラの設置位置の良し悪しを判断するという手順でカメラ設置位置を決定する。従来技術1および従来技術2ともに、カメラ設置位置の設計を行う場合に設計者の試行錯誤を要するという点が問題である。
 また、上述した従来技術2を用いてカメラ設置位置を決定する場合、生成される視野範囲モデルには死角となる領域が含まれている。このため、設計者は、カメラの視野範囲を正確に認識することが難しいという点も問題である。
 開示の技術は、上記に鑑みてなされたものであって、カメラの設置位置を効率的又は正確に決定することが可能なカメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置を提供することを目的とする。
 本願の開示する技術は、一つの態様において、コンピュータに、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する設定手順を実行させる。さらに、カメラ搭載対象物の3次元モデルのデータ、前記設定手順により設定される仮想面のデータおよび前記カメラのパラメータを用いて、当該カメラにより取得される仮想的なカメラ画像を生成する生成手順を実行させる。さらに、前記生成手順により生成されたカメラ画像上で、前記3次元モデルと前記仮想面との境界を算出する算出手順を実行させる。
 本願の開示する技術の一つの態様によれば、カメラの設置位置を決定する場合に設計者による試行錯誤を必要とせず、カメラの設置位置を効率的又は正確に決定できる。
図1は、実施例1に係るカメラ設置位置評価装置を示す図である。 図2は、実施例2に係るカメラ設置位置評価装置の構成を示す図である。 図3は、実施例2に係るモデルの斜視図である。 図4は、実施例2に係るモデルの側面図である。 図5は、実施例2に係る背景面の設定の説明に用いる図である。 図6は、実施例2に係る背景面の一例を示す図である。 図7は、実施例2に係るカメラ画像の一例を示す図である。 図8は、実施例2に係る第1視野範囲計算部の説明に用いる図である。 図9は、実施例2に係る第1視野範囲計算部の説明に用いる図である。 図10は、実施例2に係る視野モデル生成部の説明に用いる図である。 図11は、実施例2に係る視野モデル生成部の説明に用いる図である。 図12は、実施例2に係る第2視野範囲計算部の説明に用いる図である。 図13は、実施例2に係るカメラ設置位置評価装置の処理の流れを示す図である。 図14は、実施例2に係るカメラ設置位置評価装置の処理の説明に用いる図である。 図15は、実施例2に係るカメラ設置位置評価装置の処理の流れを示す図である。 図16は、カメラ設置位置評価プログラムを実行するコンピュータの一例を示す図である。
 以下に、図面を参照しつつ、本願の開示するカメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置の一実施形態について詳細に説明する。なお、以下では、本願の開示するカメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置の一実施形態として後述する実施例により、本願が開示する技術が限定されるものではない。
 図1は、実施例1に係るカメラ設置位置評価装置を示す図である。図1に示すように、カメラ設置位置評価装置1は、設定部2、生成部3および算出部4を有する。
 設定部2は、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する。なお、仮想面とは、カメラの光軸に直交する仮想的な平面である。生成部3は、カメラ搭載対象物の3次元モデルのデータ、設定部2により設定される仮想面のデータおよびカメラのパラメータを用いて、カメラにより取得される仮想的なカメラ画像を生成する。算出部4は、生成部3により生成されたカメラ画像上で、カメラ搭載対象物の3次元モデルと設定部2により設定される仮想面との境界を算出する。
 カメラ設置位置評価装置1は、カメラ搭載対象物に搭載されるカメラの光軸方向に、この光軸と直交する仮想的な平面を設定してから、カメラにより撮影が行われたと仮定した場合の仮想的なカメラ画像を生成する。よって、カメラ設置位置評価装置1は、カメラ搭載対象物がカメラの視野範囲にどのように写りこんでいるかを表すデータを得ることができる。そして、カメラ設置位置評価装置1は、この仮想的なカメラ画像上で、カメラ搭載対象物の3次元モデルと設定部2により設定される仮想面との境界を算出するので、この境界を元に、現在のカメラ設置位置におけるカメラの視野範囲を定量的に得られる。このようなことから、実施例1に係るカメラ設置位置評価装置1は、カメラの設置位置を決定する場合に設計者による試行錯誤を必要とせず、カメラの設置位置を効率的かつより正確に決定できる。
[カメラ設置位置評価装置の構成(実施例2)]
 図2は、実施例2に係るカメラ設置位置評価装置の構成を示す図である。図2に示すように、実施例2に係るカメラ設置位置評価装置100は、3次元モデル入力部101、カメラ設置位置入力部102およびカメラ特性データ入力部103を有する。
 さらに、カメラ設置位置評価装置100は、図2に示すように、背景面生成部104、3次元モデル管理部105および3次元モデル表示部106を有する。さらに、カメラ設置位置評価装置100は、図2に示すように、カメラ画像生成部107、カメラ画像表示部108、第1視野範囲計算部109、視野モデル生成部110、第2視野範囲計算部111および視野情報出力部112を有する。
 なお、背景面生成部104、カメラ画像生成部107、カメラ画像表示部108、第1視野範囲計算部109、視野モデル生成部110、第2視野範囲計算部111および視野情報出力部112は、例えば、電子回路や集積回路である。電子回路としては、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)があり、集積回路としては、例えば、ASIC(Application Specific Integrated Circuit)やFPGA (Field Programmable Gate Array)などがある。
 3次元モデル入力部101は、カメラ搭載対象物の3次元モデルを入力する。3次元モデルは、形状データ、位置データ、色データを含み、例えば、VRML(Virtual Reality Modeling Language)など、汎用のフォーマット言語を用いて表現される。カメラ搭載対象物とは、例えば、車両、建物などの構造物、ロボットなど、カメラが搭載される物体を意味する。また、3次元モデルは、ワールド座標系における床面の平面位置のデータも含んでいるものとする。ワールド座標系とは、3次元空間にある物体の位置を定義する上で基準となる座標系であり、X軸、Y軸およびZ軸からなる座標軸と原点を有する。X軸およびY軸は床面上で直交する座標軸である。Z軸は、X軸およびY軸の交点から床面に対して鉛直方向にのびる座標軸である。
 形状データは3角形ポリゴンの数および3角形ポリゴンのモデル座標系における頂点位置の座標を有する。上述したカメラ搭載対象物の3次元モデルは、複数の3角形ポリゴンを各頂点位置の座標に基づいて組み合わせることで作成される。
 モデル座標系とは、3次元モデルごとに定義されるローカル座標系であり、原点および互いに直交する3つの座標軸であるX軸、Y軸およびZ軸を有する。ワールド座標系に対して、モデル座標系における位置および姿勢を定義することにより、3次元空間上での3次元モデルの位置および姿勢が決定される。
 カメラ設置位置入力部102はカメラの設置位置やカメラの姿勢の候補として複数のサンプルを入力する。なお、複数のサンプルとは、例えば、カメラ座標系の位置や姿勢を変化させて作った位置ベクトルや回転ベクトルの組合せである。カメラ座標系とは、カメラごとに定義されるローカル座標系であり、カメラのレンズの中心を原点とし、カメラの光軸方向の軸であるZ軸、原点を通り撮像面の横軸と並行な方向の軸であるX軸、および原点を通りX軸に直交する方向の軸であるY軸を有する。カメラの設置位置は、カメラ座標系の原点の位置ベクトル値で得られる。また、カメラの姿勢は、カメラ座標系のX軸、Y軸およびZ軸の回転ベクトル値で得られる。回転ベクトルは、例えば、ロール角、ピッチ角、ヨー角、オイラー角などに該当する。ロール角は、カメラ搭載対象物に対して水平方向のカメラの傾きを示す角度である。ピッチ角は、カメラ搭載対象物に対して鉛直方向のカメラの傾きを示す角度である。ヨー角は、例えば、Z軸を基準としたカメラの回転角度である。オイラー角は、カメラ座標系における各座標軸の回転角度の組合せである。
 カメラ特性データ入力部103は、カメラの画角、焦点距離、撮像面サイズなどカメラ画像を生成するために必要なパラメータを入力する。
 図3は、実施例2に係るモデルの斜視図である。図4は、実施例2に係るモデルの側面図である。図3の200はカメラ搭載対象物の3次元モデルを示し、図3の300はカメラ搭載対象物に搭載されるカメラのモデルを示す。また、図3の31はカメラ座標系を示し、図3の32はモデル座標系を示す。また、図4の200はカメラ搭載対象物の3次元モデルを示し、図4の300はカメラ搭載対象物に搭載されるカメラのモデルを示す。図4の41はカメラ搭載対象物が配置される床面を示し、図4の42はカメラの視野範囲を示し、図4の43はカメラの光軸を示す。
 例えば、3次元モデル入力部101は、カメラ搭載対象物の3次元モデルを入力すると、図3に示すようなモデル座標系32を3次元モデルに動的に定義する。また、例えば、カメラ設置位置入力部102は、カメラの設置位置および姿勢の候補として入力する複数のサンプルごとにカメラ座標系31を動的に定義する。また、カメラ特性データ入力部103により入力されるカメラの画角、焦点距離、撮像面サイズなどにより、図4に示すようなカメラの視野範囲42やカメラの光軸43のデータが得られる。
 背景面生成部104は、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想的な背景面を設定する。図5は、実施例2に係る背景面の設定の説明に用いる図である。図5には、カメラ搭載対象物の3次元モデルと、設置されるカメラの様子を横から見た側面図を示す。図5の200はカメラ搭載対象物の3次元モデルを示し、図5の300はカメラのモデルを示し、図5の51は、バウンディングボックス(Bounding Box)を示し、図5の52は背景面を示し、図5の53はカメラの視野範囲を示し、図5の54はカメラの光軸を示す。図5の51に示すように、バウンディングボックスとは、3次元モデルを取り囲む境界線で表現された矩形領域である。
 例えば、図5に示すように、背景面生成部104は、まず、後述する3次元モデル入力部101により入力されたカメラ搭載対象物の3次元モデルのデータを用いて、3次元モデルのバウンディングボックス51を計算する。次に、背景面生成部104は、カメラ設置位置入力部102により入力されたカメラの設置位置についてのデータおよびカメラ特性データ入力部103により入力されたカメラの特性についてのデータを用いて、カメラの設置位置およびカメラの光軸方向を計算する。そして、背景面生成部104は、カメラの光軸54に垂直な平面で、かつバウンディングボックス51の頂点を通る平面を計算し、計算した平面の中から、カメラの光軸54の起点から最も遠い平面を背景面52として設定する。カメラの光軸54の起点とは、例えば、カメラが有するレンズの中心、いわゆる光学中心である。なお、背景面52は、平面に限られるものではなく、例えば、魚眼レンズを有するカメラをカメラ搭載対象物に搭載する場合には、背景面を球面にすることもできる。また、背景面52は、光軸に直交する平面に限られるものではなく、平面のローカル座標を定義した背景面を用いることもできる。
 図6は、実施例2に係る背景面の一例を示す図である。図6の61は背景面を示し、図6の62はカメラ座標系のX軸と平行な軸を示し、図6の63はカメラ座標系のY軸と平行な軸を示し、図6の64はカメラ座標系のZ軸との交点を示す。
 背景面生成部104は、カメラ搭載対象物の3次元モデルに使用される色とは異なる色を用いて、例えば、図6に示すように、背景面61に等間隔の格子線を有する格子模様を貼り付ける。背景面生成部104は、カメラの光軸方向の座標軸をZ軸、図6に示す格子模様の水平方向をX軸62、格子模様の垂直方向をY軸63とする背景面座標系を背景面61に設定する。
 3次元モデル管理部105は、カメラ搭載対象物の3次元モデルのデータ、背景面のデータ、視野範囲モデルのデータを管理する。3次元モデル管理部105は、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子などの記憶部であり、3次元モデルのデータ、背景面のデータ、視野範囲モデルのデータを記憶する。
 3次元モデル表示部106は、3次元モデル管理部105に管理されているカメラ搭載対象物の3次元モデルのデータ、背景面のデータ、視野範囲モデルのデータをディスプレイやモニタなどに表示出力する。
 カメラ画像生成部107は、カメラ搭載対象物の3次元モデルのデータ、背景面のデータおよびカメラ搭載対象物に搭載されるカメラのパラメータを用いて、カメラにより取得される仮想的なカメラ画像を生成する。例えば、カメラ画像生成部107は、3次元モデル管理部105からカメラ搭載対象物の3次元モデルのデータおよび背景面のデータを取得する。さらに、カメラ画像生成部107は、カメラ特性データ入力部103により入力されたカメラの画角、焦点距離および撮像面サイズなどのパラメータを取得する。そして、カメラ画像生成部107は、射影変換などの公知技術を用いて仮想的なカメラ画像を生成する。
 図7は、実施例2に係るカメラ画像の一例を示す図である。図7には、中心射影により生成されたカメラ画像を示す。図7の71はカメラ画像を示し、図7の72は、カメラ画像における座標系を示し、図7の73はカメラ画像内に写りこむカメラ搭載対象物の3次元モデルを示し、図7の74は背景面を示す。なお、以下では、カメラ画像内の背景面74に対応する領域から、カメラ搭載対象物の3次元モデルが写りこんだ領域を除いた領域を視野領域と表記する。カメラ画像生成部107は、図7に示すように、計算したカメラの撮像イメージに対してカメラ画像における座標系72を設定することにより、カメラ画像の生成を完了する。なお、カメラ画像の生成に関する公知技術については、例えば、特開2009-105802号公報を参照されたい。
 カメラ画像表示部108は、カメラ画像生成部107により生成されたカメラ画像をディスプレイやモニタなどに表示出力する。
 第1視野範囲計算部109は、カメラ画像を元に、仮想的な背景面上におけるカメラの視野範囲を特定するためのデータを計算する。図8は、実施例2に係る第1視野範囲計算部の説明に用いる図である。図8の81はカメラ画像を示し、図8の82はカメラ画像上の背景面を示し、図8の83はカメラ搭載対象物を示し、図8の84は視野領域の境界線を示し、図8の85および86はカメラ画像の座標系の座標軸を示す。また、図8の87は座標軸85と同一方向の格子線を示し、図8の88は境界線84と格子線87との交点を示す。
 例えば、第1視野範囲計算部109は、まず、背景面に設定された色と、カメラ搭載対象物に設定された色との違いに基づいて、カメラ画像上の背景面82から、カメラ搭載対象物83の3次元モデルに対応する領域を除外する。その後、第1視野範囲計算部109は、カメラ搭載対象物83の3次元モデルに対応する領域が除外されたカメラ画像のエッジを抽出することにより、カメラ搭載対象物83の3次元モデルに対応する領域と視野領域との境界線84を検出する。そして、第1視野範囲計算部109は、視野領域の境界線84と格子線87との交点88を検出する。同様にして、第1視野範囲計算部109は、背景面に設定された格子線と境界線84との交点を全て検出する。
 続いて、第1視野範囲計算部109は、カメラ画像上で検出した全ての交点に対応する背景面上の点を検出する。図9は、実施例2に係る第1視野範囲計算部の説明に用いる図である。図9の91は背景面を示し、図9の92はカメラの撮像面を示し、図9の93はカメラのレンズ中心、いわゆる光学中心を示し、図9の94は撮像面上の点を示し、図9の95は背景面上の点を示す。なお、図9に示す撮像面92は、図8に示すカメラ画像81が撮影される面である。
 例えば、第1視野範囲計算部109は、まず、カメラ画像上で検出された交点の位置を撮像面92上の3次元位置に変換する。次に、第1視野範囲計算部109は、撮像面92上の交点の3次元位置を射影変換することにより、撮像面92上の3次元位置に対応する背景面上の位置を計算する。例えば、第1視野範囲計算部109は、撮像面92上の点94の3次元位置を射影変換することにより、点94に対応する背景面上の点95の位置を計算する。同様にして、第1視野範囲計算部109は、カメラ画像上で検出された全ての交点に対応する背景面上の位置を計算する。例えば、カメラ画像上で検出された全ての交点に対応する背景面上の位置の座標値は、仮想的な背景面上におけるカメラの視野範囲を特定するためのデータとなる。そして、例えば、カメラ画像上で検出された全ての交点に対応する背景面上の位置を接続する滑らかな曲線は、カメラ画像上における背景面と3次元モデルとの境界を表す。
 視野モデル生成部110は、カメラ画像上で検出された全ての交点に対応する背景面上の位置を用いてカメラの視野領域を示す3次元形状を生成する。図10および図11は、実施例2に係る視野モデル生成部の説明に用いる図である。図10の10-1は、カメラのレンズの中心を示し、図10の10-2は、撮像面上の視野領域の形状を示し、図10の10-3は、背景面上の視野領域の形状を示す。また、図11の11-1は、カメラのレンズの中心を示し、図11の11-2は、背景面上の視野領域の形状を示し、図11の11-3は、視野領域の3次元形状を示す。
 まず、視野モデル生成部110は、カメラ画像上で検出された全ての交点に対応する背景面上の位置と、背景面の各頂点の位置とに基づいて、図10に示すように、背景面上の視野領域の形状10-3を求める。例えば、カメラ画像上で検出された全ての交点に対応する背景面上の3次元位置を示す座標と、背景面の各頂点の位置を示す3次元位置の座標とを接続することにより、背景面上における視野領域の形状を求める。そして、視野モデル生成部110は、図11に示すように、カメラのレンズの中心11-1を頂点とし、背景面上の視野領域の形状11-2を底面とする3次元形状11-3を求める。この3次元形状11-3は、視野範囲モデルともいう。
 第2視野範囲計算部111は、カメラのレンズの中心を頂点とし、背景面上の視野領域の形状を底面とする3次元形状、つまり視野範囲モデルを用いて床面上の視野領域の形状を計算する。図12は、実施例2に係る第2視野範囲計算部の説明に用いる図である。図12の12-1はカメラのレンズの中心を示し、図12の12-2は視野範囲モデルを示し、図12の12-3は床面の平面モデルを示し、図12の12-4は床面上の視野領域の形状を示す。
 まず、第2視野範囲計算部111は、カメラ座標系に属する視野範囲モデルの位置を、カメラ搭載対象物の3次元モデルが属するモデル座標系の位置を変換する。さらに、第2視野範囲計算部111は、視野範囲モデルの位置を、床面の平面モデルが属するワールド座標系の位置に変換する。また、第2視野範囲計算部111は、カメラ座標系に属する視野範囲モデルの位置を、床面の平面モデルが属するワールド座標系の位置に一度に変換することもできる。
 次に、第2視野範囲計算部111は、入力された床面のデータを用いて床面の平面モデル12-3を設定する。続いて、第2視野範囲計算部111は、カメラのレンズの中心12-1と背景面上の視野領域の形状の各頂点とを結ぶ直線12-2をそれぞれ求める。そして、第2視野範囲計算部111は、カメラのレンズの中心と背景面上の視野領域の形状の各頂点とを結ぶ直線と、床面との交点を元にして、例えば、図12に示すように、床面の平面モデル12-3上の視野領域の形状12-4を求める。
 なお、カメラ設置位置評価装置100は、カメラ設置位置入力部102により入力されるカメラの設置位置および姿勢について複数のサンプルについて、床面の平面モデル上の視野領域の形状をサンプルごとに求める。
 視野情報出力部112は、床面の平面モデル上に投影されたカメラの視野領域がなす面積に基づいて、カメラの設置位置および姿勢の最適解を出力する。例えば、床面の平面モデル上に投影されたカメラの視野領域がなす面積が最大となるときのカメラの設置位置および姿勢の最適解として出力する。
 なお、上述した実施例において「位置」という場合には、対応する座標系における座標値に該当する。
[カメラ設置位置評価装置の処理(実施例2)]
 まず、図13を用いて、カメラ設置位置評価装置100の全体の処理の流れを説明する。図13は、実施例2に係るカメラ設置位置評価装置の処理の流れを示す図である。なお、図13は、カメラの設置位置や姿勢についての複数の候補を入力し、入力された候補についてカメラの撮影範囲を計算し、計算結果に基づいて最適な解を抽出するまでの処理の流れを示す。また、図13に示すカメラ設置位置評価装置100による処理は、カメラの設置位置および姿勢の候補として、カメラ設置位置入力部102により入力される複数のサンプルごとに実行される。複数のサンプルとは、上述したように、例えば、設置させるカメラごとに入力されるカメラ座標系におけるカメラの設置位置に対応した座標値や、カメラのロール角などに対応したカメラ座標系における各座標軸の回転ベルトル値である。
 図13に示すように、カメラの設置範囲およびシミュレーションを実行するサンプル数の指定を受け付けると(ステップS1301)、例えば、カメラ設置位置入力部102は、サンプル毎にカメラの設置位置および姿勢を計算する(ステップS1302)。
 例えば、カメラのチルト角の最小値「X1」~最大値「X2」までをカメラの設置範囲として指定されたものとする。なお、チルト角とは、カメラの光軸が水平方向から何度下向きに傾いているかを示す角度である。また、シミュレーションのサンプル数として「N」を指定されたものとする。Nは正の整数とし、シミュレーションとはカメラの撮影範囲を計算するシミュレーションを意味するものとする。例えば、i番目のサンプルに対応するカメラのチルト角は、X1+(X2-X1)/Niで表される。
 次に、背景面生成部104は、カメラ搭載対象物の3次元モデルの背後に仮想的な背景面をサンプル毎に設定する(ステップS1303)。続いて、カメラ画像生成部107は、サンプル毎にカメラ画像を生成する(ステップS1304)。そして、カメラ設置位置評価装置100は、床面上の視野領域計算処理を実行する(ステップS1305)。なお、ステップS1305に対応する視野領域計算処理については、図15を用いて後述する。
 視野情報出力部112は、床面における視野領域面積「A」およびカメラ搭載対象物から床面上の視野領域までの最短距離「B」を計算する(ステップS1306)。図14は、実施例2に係るカメラ設置位置評価装置の処理の説明に用いる図である。図14の14-1は床面を示し、図14の14-2は床面上の視野領域を示し、図14の14-3はカメラ搭載対象物の3次元モデルを示し、図14の14-4は、床面上の視野領域とカメラ搭載対象物の3次元モデルとの間の最短距離を示す。視野情報出力部112が計算する視野領域面積「A」は、図14に示す14-2の面積に対応し、視野情報出力部112が計算する最短距離「B」は、図14に示す14-4の距離に対応する。
 さらに、視野情報出力部112は、サンプル毎に「uA-vB」を計算する(ステップS1307)。なお、u,vは、任意に設定する重み係数である。そして、視野情報出力部112は、「uA-vB」が最大となるときのサンプルと特定し、特定したサンプルに対応するカメラの設置位置および姿勢を最適解として抽出し(ステップS1308)、処理を終了する。
 続いて、図15を用いて、カメラ設置位置評価装置100による床面上の視野領域計算処理の流れを説明する。図15は、実施例2に係るカメラ設置位置評価装置の処理の流れを示す図である。
 図15に示すように、第1視野範囲計算部109は、カメラ画像から背景面上におけるカメラの視野領域を計算する(ステップS1501)。次に、第1視野範囲計算部109は、背景面上におけるカメラの視野領域の境界線を検出し(ステップS1502)、検出した境界線と、背景面上の格子線との交点「C~C」を検出する(ステップS1503)。なお、nは、交点の数に応じた正の整数に該当し、交点の数が10個であれば「C10」と表記されることとなる。
 視野モデル生成部110は、カメラ画像上での交点「C~C」の位置を撮像面上での位置に変換する(ステップS1504)。そして、視野モデル生成部110は、射影変換により、撮像面上の交点「C~C」の位置に対応する、背景面上の位置を計算する(ステップS1505)。
 第2視野範囲計算部111は、背景面上での交点「C~C」の位置を用いて、背景面上での視野範囲領域を算出する(ステップS1506)。そして、第2視野範囲算出部111は、カメラのレンズの中心位置と背景面上の視野領域形状とに基づいて、床面上の視野領域形状を計算し(ステップS1507)、床面上の視野領域計算処理を終了する。
[実施例2による効果]
 上述してきたように、実施例2によれば、カメラ設置位置評価装置100は、カメラ搭載対象物に搭載されるカメラの光軸方向に、この光軸と直交する仮想的な平面を設定してから、カメラにより撮影が行われたと仮定した場合の仮想的なカメラ画像を生成する。そして、カメラ設置位置評価装置100は、カメラ搭載対象物の3次元モデルと設定部2により設定される仮想面との境界を算出するので、この境界を元に、現在のカメラ設置位置におけるカメラの視野範囲を定量的に得ることができる。このようなことから、カメラの設置位置を決定する場合に設計者による試行錯誤を必要とせず、例えば、カメラの視野範囲が最大となるようなカメラの設置位置を効率的かつより正確に決定できる。
 また、実施例2によれば、カメラの視野範囲を表す3次元モデルを用いて、カメラ搭載対象物が配置された床面におけるカメラの視野領域を算出するので、カメラで実際に撮影した画像に対応する視野領域を設計者に提供することができる。
 また、実施例2によれば、カメラ搭載対象物の3次元モデルの色とは異なる色を背景面に設定するので、生成した仮想的なカメラ画像からカメラの視野領域を効率的に算出できる。
 以下、本願の開示するカメラ設置位置評価装置の他の実施形態を説明する。
(1)装置構成等
 例えば、図2に示したカメラ設置位置評価装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、カメラ設置位置評価装置100の分散・統合の具体的形態は図示のものに限られず、例えば、第1視野範囲計算部109と第2視野範囲計算部111とを機能的または物理的に統合する。このように、カメラ設置位置評価装置100の全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(2)カメラ設置位置評価方法
 上述してきた実施例2により以下のようなステップを含むカメラ設置位置評価方法が実現される。すなわち、このカメラ設置位置評価方法は、カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想的な背景面を設定する設定ステップを含む。この設定ステップは、図2の背景面生成部104にて実行される処理に対応する。さらに、このカメラ設置位置評価方法は、カメラ搭載対象物の3次元モデルのデータ、設定ステップにより設定される仮想的な背景面のデータおよびカメラのパラメータを用いて、カメラにより取得される仮想的なカメラ画像を生成する生成ステップを含む。この生成ステップは、図2のカメラ画像生成部107にて実行される処理に対応する。さらに、このカメラ設置位置評価方法は、生成ステップにより生成されたカメラ画像上で、カメラ搭載対象物の3次元モデルと仮想的な背景面との境界を算出する算出ステップを含む。この算出ステップは、図2の第1視野範囲計算部109にて実行される処理に対応する。
(3)カメラ設置位置評価プログラム
 また、例えば、実施例1で説明したカメラ設置位置評価装置100の各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。なお、カメラ設置位置評価装置100の各種の処理については、例えば、図13等を参照されたい。
 そこで、以下では、図16を用いて、実施例2で説明したカメラ設置位置評価装置100による処理と同様の機能を実現するカメラ設置位置評価プログラムを実行するコンピュータの一例を説明する。図16は、カメラ設置位置評価プログラムを実行するコンピュータの一例を示す図である。
 図16に示すように、カメラ設置位置評価装置100として機能するコンピュータ400は、入力装置401、モニタ402、RAM(Random Access Memory)403、ROM(Read Only Memory)404を有する。また、コンピュータ400は、CPU(Central Processing Unit)405、HDD(Hard Disk Drive)406を有する。
 なお、入力装置401は、例えば、キーボードやマウスなどである。モニタ402は、入力装置401であるマウスと協働して、ポインティングデバイス機能を実現する。また、モニタ402は、各種の情報、例えば三次元モデル画像を表示する表示デバイスであり、ディスプレイやタッチパネルなどで代用が可能である。なお、入力装置401であるマウスによってポインティングデバイス機能が実現される場合に限られるものではなく、タッチパッドなどの他の入力デバイスによりポインティングデバイス機能が実現されてもよい。
 なお、CPU405の代わりに、例えば、MPU(Micro Processing Unit)などの電子回路、ASIC(Application Specific Integrated Circuit)やFPGA (Field Programmable Gate Array)などの集積回路を用いることもできる。また、RAM403やROM404の代わりに、フラッシュメモリ(flash memory)などの半導体メモリ素子を用いることもできる。
 そして、コンピュータ400は、入力装置401、モニタ402、RAM403、ROM404、CPU405およびHDD406をバス407で相互に接続する。
 そして、HDD406には、上述したカメラ設置位置評価装置100の機能と同様の機能を発揮するカメラ設置位置評価プログラム406aが記憶されている。なお、このカメラ設置位置評価プログラム406aを適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。
 そして、CPU405が、カメラ設置位置評価プログラム406aをHDD406から読み出してRAM403に展開することにより、図16に示すように、カメラ設置位置評価プログラム406aはカメラ設置位置評価プロセス405aとして機能する。
 すなわち、カメラ設置位置評価プロセス405aは、各種データ403aをRAM403において身に割り当てられた領域に展開し、この展開した各種データ403aに基づいて各種処理を実行する。
 なお、カメラ設置位置評価プロセス405aは、例えば、図2に示した背景面生成部104にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示したカメラ画像生成部107にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示したカメラ画像表示部108にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示した第1視野範囲計算部109にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示した視野モデル生成部110にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示した第2視野範囲計算部111にて実行される処理に対応する処理を含む。また、カメラ設置位置評価プロセス405aは、例えば、図2に示した視野情報出力部112にて実行される処理に対応する処理を含む。
 なお、カメラ設置位置評価プログラム406aについては、必ずしも最初からHDD406に記憶させておく必要はない。例えば、コンピュータ400に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ400がこれらから各プログラムを読み出して実行するようにしてもよい。
 さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ400に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておく。そして、コンピュータ400がこれらから各プログラムを読み出して実行するようにしてもよい。
 1 カメラ設置位置評価装置
 2 設定部
 3 生成部
 4 算出部
 100 カメラ設置位置評価装置
 101 3次元モデル入力部
 102 カメラ設置位置入力部
 103 カメラ特性データ入力部
 104 背景面生成部
 105 3次元モデル管理部
 106 3次元モデル表示部
 107 カメラ画像生成部
 108 カメラ画像表示部
 109 第1視野範囲計算部
 110 視野モデル生成部
 111 第2視野範囲計算部
 112 視野情報出力部
 200 カメラ搭載対象物の3次元モデル
 300 カメラのモデル
 400 コンピュータ
 401 入力装置
 402 モニタ
 403 RAM
 404 ROM
 405 CPU
 406 HDD
 407 バス

Claims (5)

  1.  コンピュータに、
     カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する設定手順と、
     カメラ搭載対象物の3次元モデルのデータ、前記設定手順により設定される仮想面のデータおよび前記カメラのパラメータを用いて、当該カメラにより取得される仮想的なカメラ画像を生成する生成手順と、
     前記生成手順により生成されたカメラ画像上で、前記3次元モデルと前記仮想面との境界を算出する算出手順と
     を実行させることを特徴とするカメラ設置位置評価プログラム。
  2.  前記コンピュータに、
     前記算出手順により算出された前記境界を用いて、前記設定手順により設定された前記仮想面における前記カメラの視野領域を算出する第1の視野領域算出手順と、
     前記第1の視野範囲算出手順により算出された前記仮想面上の視野範囲を底面とし、前記カメラの光学中心を頂点とする視野範囲モデルを生成するモデル生成手順と、
     前記モデル生成手順により生成された前記視野範囲モデルを用いて、前記3次元モデルが配置されている床面における前記カメラの視野領域を算出する第2の視野領域算出手順と
     をさらに実行させることを特徴とする請求項1に記載のカメラ設置位置評価プログラム。
  3.  前記設定手順は、前記3次元モデルに使用する色とは異なる色を前記仮想面に設定することを特徴とする請求項2に記載のカメラ設置位置評価プログラム。
  4.  カメラの設置位置を評価するカメラ設置位置評価装置が行うカメラ設置位置評価方法であって、
     カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する設定ステップと、
     カメラ搭載対象物の3次元モデルのデータ、前記設定ステップにより設定される仮想面のデータおよび前記カメラのパラメータを用いて、当該カメラにより取得される仮想的なカメラ画像を生成する生成ステップと、
     前記生成ステップにより生成されたカメラ画像上で、前記3次元モデルと前記仮想面との境界を算出する算出ステップと
     を含んだことを特徴とするカメラ設置位置評価方法。
  5.  カメラ搭載対象物に搭載されるカメラの光軸に直交する仮想面を設定する設定部と、
     カメラ搭載対象物の3次元モデルのデータ、前記設定部により設定される仮想面のデータおよび前記カメラのパラメータを用いて、当該カメラにより取得される仮想的なカメラ画像を生成する生成部と、
     前記生成部により生成されたカメラ画像上で、前記3次元モデルと前記仮想面との境界を算出する算出部と
     を有することを特徴とするカメラ設置位置評価装置。
PCT/JP2010/051450 2010-02-02 2010-02-02 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置 WO2011096049A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011552604A JP5136703B2 (ja) 2010-02-02 2010-02-02 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置
PCT/JP2010/051450 WO2011096049A1 (ja) 2010-02-02 2010-02-02 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置
US13/562,715 US20120293628A1 (en) 2010-02-02 2012-07-31 Camera installation position evaluating method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/051450 WO2011096049A1 (ja) 2010-02-02 2010-02-02 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/562,715 Continuation US20120293628A1 (en) 2010-02-02 2012-07-31 Camera installation position evaluating method and system

Publications (1)

Publication Number Publication Date
WO2011096049A1 true WO2011096049A1 (ja) 2011-08-11

Family

ID=44355078

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/051450 WO2011096049A1 (ja) 2010-02-02 2010-02-02 カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置

Country Status (3)

Country Link
US (1) US20120293628A1 (ja)
JP (1) JP5136703B2 (ja)
WO (1) WO2011096049A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010070A (ja) * 2019-06-28 2021-01-28 セコム株式会社 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
JP7311327B2 (ja) 2019-06-28 2023-07-19 セコム株式会社 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130084720A (ko) * 2012-01-18 2013-07-26 삼성전기주식회사 영상 처리 장치 및 방법
WO2015054225A1 (en) 2013-10-07 2015-04-16 Google Inc. Smart-home hazard detector providing non-alarm status signals at opportune moments
WO2017134786A1 (ja) * 2016-02-04 2017-08-10 三菱電機株式会社 設置位置決定装置、設置位置決定方法及び設置位置決定プログラム
US10672243B2 (en) * 2018-04-03 2020-06-02 Chengfu Yu Smart tracker IP camera device and method
CN110399622A (zh) * 2018-04-24 2019-11-01 上海欧菲智能车联科技有限公司 车载摄像头的布置方法及车载摄像头的布置系统
CN111683241B (zh) * 2019-03-11 2023-06-27 西安光启智能技术有限公司 一种快速测量摄像机视野盲区距离的方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001070473A (ja) * 1999-09-09 2001-03-21 Sekisui House Ltd Cg画像の生成・表示方法
JP2004102474A (ja) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp 3次元建物モデルデータ生成装置及び3次元都市モデルデータ生成装置及び3次元建物モデルデータ生成方法及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2009105802A (ja) * 2007-10-25 2009-05-14 Toa Corp カメラ設置シミュレータプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
JPH04136974A (ja) * 1990-09-28 1992-05-11 Toshiba Lighting & Technol Corp カメラ運用シュミレーション装置
US7137556B1 (en) * 1999-04-07 2006-11-21 Brett Bracewell Bonner System and method for dimensioning objects
JP2003009135A (ja) * 2001-06-21 2003-01-10 Toshiba Corp カメラ監視制御システム及び画像サーバ
JP2007090481A (ja) * 2005-09-28 2007-04-12 Fanuc Ltd ロボットシミュレーション装置
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
JP2008154188A (ja) * 2006-12-20 2008-07-03 Sony Corp 画像伝送システム及び画像伝送方法
US20100315421A1 (en) * 2009-06-16 2010-12-16 Disney Enterprises, Inc. Generating fog effects in a simulated environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001070473A (ja) * 1999-09-09 2001-03-21 Sekisui House Ltd Cg画像の生成・表示方法
JP2004102474A (ja) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp 3次元建物モデルデータ生成装置及び3次元都市モデルデータ生成装置及び3次元建物モデルデータ生成方法及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2009105802A (ja) * 2007-10-25 2009-05-14 Toa Corp カメラ設置シミュレータプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010070A (ja) * 2019-06-28 2021-01-28 セコム株式会社 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
JP7291013B2 (ja) 2019-06-28 2023-06-14 セコム株式会社 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
JP7311327B2 (ja) 2019-06-28 2023-07-19 セコム株式会社 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JP5136703B2 (ja) 2013-02-06
JPWO2011096049A1 (ja) 2013-06-06
US20120293628A1 (en) 2012-11-22

Similar Documents

Publication Publication Date Title
JP5136703B2 (ja) カメラ設置位置評価プログラム、カメラ設置位置評価方法およびカメラ設置位置評価装置
US7663649B2 (en) Information processing device and method for aiding control operations relating to controlling the position and orientation of a virtual object and method for changing the positioning and orientation of a virtual object
JP7294396B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5521750B2 (ja) シミュレーションプログラム、シミュレーション装置及びシミュレーション方法
JP2019049533A (ja) 対象物の3−d計測を実施するための解像度適応型メッシュ
CN105264566A (zh) 建模装置、三维模型生成装置、建模方法、程序和布局模拟器
JP2010129063A (ja) 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置
CN107809610B (zh) 摄像头参数集算出装置、摄像头参数集算出方法以及记录介质
JP5366258B2 (ja) 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
WO2018027533A1 (zh) 一种摄像机配置方法和装置
JP2023529790A (ja) フロアプランを生成するための方法、装置およびプログラム
JP2001184526A (ja) 3次元形状データにおける面生成方法
CN111833428B (zh) 一种可视域确定方法、装置及设备
JP6984583B2 (ja) 情報処理装置および情報処理方法
JP5593911B2 (ja) 映像生成装置、映像生成プログラム及び映像生成方法
WO2015141214A1 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP6306903B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6246435B1 (ja) 設置位置決定装置、設置位置決定方法及び設置位置決定プログラム
JP2020187626A (ja) 画像処理装置、画像処理方法、及びプログラム
JP5287613B2 (ja) 画像表示方法、情報処理装置および画像表示プログラム
JP2020160756A (ja) 画像生成装置、画像生成方法、及びプログラム
JP2020024499A (ja) 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法
US20230289987A1 (en) Shape estimation apparatus, processing method, and computer-readable storage medium
CN104346822A (zh) 纹理贴图方法及装置
JP7290599B2 (ja) 点群処理システム、方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10845186

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011552604

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10845186

Country of ref document: EP

Kind code of ref document: A1