WO2003094515A1 - Appareil d'imagerie, systeme d'imagerie, procede de commande d'un appareil d'imagerie et programme de commande, support d'enregistrement dans lequel ledit programme a ete enregistre - Google Patents

Appareil d'imagerie, systeme d'imagerie, procede de commande d'un appareil d'imagerie et programme de commande, support d'enregistrement dans lequel ledit programme a ete enregistre Download PDF

Info

Publication number
WO2003094515A1
WO2003094515A1 PCT/JP2003/005307 JP0305307W WO03094515A1 WO 2003094515 A1 WO2003094515 A1 WO 2003094515A1 JP 0305307 W JP0305307 W JP 0305307W WO 03094515 A1 WO03094515 A1 WO 03094515A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
unit
imaging device
camera
identification information
Prior art date
Application number
PCT/JP2003/005307
Other languages
English (en)
French (fr)
Inventor
Kenji Kanayama
Toshihiro Suzuki
Original Assignee
Omron Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corporation filed Critical Omron Corporation
Priority to US10/510,951 priority Critical patent/US20050231357A1/en
Priority to EP03725667A priority patent/EP1501306A4/en
Priority to AU2003231497A priority patent/AU2003231497A1/en
Publication of WO2003094515A1 publication Critical patent/WO2003094515A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • Patent application title IMAGING APPARATUS, IMAGING SYSTEM, IMAGING APPARATUS CONTROL METHOD AND CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
  • the present invention relates to an imaging device used for area monitoring and the like, an imaging system, a control method and control program of an imaging device, and a recording medium recording the program.
  • An image monitoring system that rapidly monitors and manages services and provides various services using imaging information from a specific area, such as a office building, store, or house, is rapidly spread. I'm doing.
  • Such an image monitor system is composed of cameras installed at a plurality of locations and a monitoring server that centrally manages these cameras. Then, the image information captured by each camera is transmitted to the monitoring server via the communication network, and the monitoring server determines the presence or absence of an abnormality.
  • the present invention has been made to solve the above problems, and an object thereof is to provide an imaging device, an imaging system, and a control method of the imaging device for preventing unauthorized use due to the theft or the like of an installation camera. It is.
  • an image pickup apparatus comprises: an image pickup unit for converting input light to obtain photographed image data; a self position detection unit for detecting a self position; A region determining unit that determines whether the own position detected by the unit is inside or outside the defined region, and the region determining unit determines that the own position is outside the defined region; And an imaging operation restriction unit for restricting an imaging operation of the unit.
  • an imaging unit that converts input light to obtain captured image data includes an optical system including a lens in addition to a light receiving element such as a CCD (charge coupled device) element or a CMOS element, It consists of a signal processing system that performs various conversion processing on the signal obtained by the light receiving element.
  • a light receiving element such as a CCD (charge coupled device) element or a CMOS element
  • the self position detection unit is not particularly limited as long as it is a configuration that absolutely or relatively specifies the self position (the position of the imaging device), but various types of GPS (Global Positioning System) / LPS (Local Positioning System)
  • GPS Global Positioning System
  • LPS Local Positioning System
  • a configuration field intensity measurement using method or the like can be employed to detect the distance from the reference station by measuring the intensity of the wave (radio wave, ultrasonic wave, infrared ray, etc.) transmitted from the reference station.
  • the area determination unit compares the own position detected by the own position detection unit with a predetermined defined area, so that the own position (the position of the imaging device) is inside the defined area. It is a configuration that determines whether it is an external device or not, and is realized by various computing means and information processing means.
  • the prescribed area is defined as, for example, an area within a radius R (m) from the point A, and for example, predetermined numerical ranges may be defined for latitude and longitude, respectively.
  • the imaging operation restriction unit is configured to restrict an imaging operation of the imaging unit through provision of an instruction signal or the like when the area determination unit determines that the own position is outside the defined area.
  • various modes can be considered as a limitation mode of the imaging operation, but as an example, an aspect that does not receive an imaging signal input, an aspect that locks the power supply of the imaging apparatus in an off state, and captured image data
  • the current position of the imaging device is detected by the self position detection unit, and the self position, which is the detection result, is detected by the area determination unit. It is determined whether it is inside or outside the defined area. As a result, if it is determined that the own position is outside the defined area, the imaging operation limiting unit limits the imaging operation of the imaging unit. Therefore, when the imaging device is moved outside the defined area, the imaging unit of the imaging device is restricted in its imaging operation.
  • the imaging device of the present invention even if the imaging device is stolen, it can not be used, so it is possible to reduce the risk itself which is a target of theft or unauthorized use.
  • the form of the imaging apparatus is not particularly limited, and all forms may be integrally stored in a housing, or as in a so-called net camera, an imaging system and a controller may be used.
  • the unit may be separated, and the imaging unit and the controller unit may be connected via wireless communication or the like.
  • An imaging system is characterized by comprising the imaging device and a server computer that receives imaging surface image information transmitted from the imaging device.
  • an area for determining an own position detecting an own position, and an area determining whether the own position detected in the own position detecting step is inside or outside a defined area In the control method of an imaging apparatus according to the present invention, an area for determining an own position detecting an own position, and an area determining whether the own position detected in the own position detecting step is inside or outside a defined area.
  • an imaging operation restriction step of restricting the imaging operation of the imaging unit which converts the input light in the imaging device to obtain photographed image data It is characterized by having
  • an imaging unit for converting input light to obtain captured image data includes an optical system including a light receiving element such as a CCD element or a CMOS element or a lens, and a signal obtained by the light receiving element. It consists of a signal processing system that performs various conversion processes.
  • the intensities of various kinds of GPS (Global Positioning System) / LPS (Local Positioning System), as well as transmitted waves (radio waves, ultrasonic waves, infrared rays, etc.) from a base station force are measured to
  • the own position (position of the imaging device) is specified absolutely or relatively by means for detecting the distance from the reference station.
  • the own position (the position of the imaging device) is the edge of the defined area by comparing the own position detected in the own position detection step with the previously defined defined area. Alternatively, it is determined whether it is external or not.
  • the defined area is, for example, an area within a radius R (m) from the point A, and for example, predetermined numerical ranges may be defined for latitude and longitude, respectively.
  • the imaging operation restriction stage when it is determined that the own position is outside the defined area in the area determination unit stage, the imaging operation of the imaging unit is restricted through application of an electric signal or the like.
  • various modes can be considered as a limiting mode of the imaging operation, but as an example, a mode that does not receive an imaging signal input, a mode in which the power of the imaging apparatus is locked in the off state, captured image data Apply mosaic processing, delete captured image data (discard) or black only- There is a mode in which the photographed image can not be confirmed by making the color white.
  • the self position detection step the current position of the imaging device is detected, and in the area determination step, is the self position that is the detection result inside or outside the defined area? It is judged.
  • the imaging operation of the imaging unit is restricted at the imaging operation restriction stage. Therefore, when the imaging device is moved outside the defined area, the imaging unit of the imaging device is restricted in its imaging operation.
  • control program of an imaging device is a computer program for causing a computer to function as each part of the imaging device.
  • the imaging device can be realized by causing a computer to function as each part of the imaging device.
  • a computer readable recording medium storing a control program of an imaging device according to the present invention is a computer readable recording medium recording a control program for causing a computer to function as each part of the imaging device.
  • the control of the imaging device read from the recording medium The program can realize the imaging device on a computer.
  • FIG. 1 is a schematic view showing a configuration of a camera (image pickup apparatus) according to an embodiment of the present invention.
  • FIG. 2 is a schematic view showing a configuration of an image monitor system (imaging system) according to an embodiment of the present invention.
  • FIG. 3 is a schematic view showing a configuration of a net camera (image pickup apparatus) according to an embodiment of the present invention.
  • FIG. 4 is a flow chart showing an example of an operation flow when the camera detects its own position.
  • FIG. 5 is a flow chart showing an example of the operation flow in the case where the camera queries the external positioning system when detecting its own position.
  • Fig. 6 is a flow chart showing an example of the operation flow when the camera uses the non-contact I D-C ip use method and the electric field intensity measurement method method for detecting its own position.
  • the image monitor system (imaging system) according to the present embodiment is configured as shown in FIG.
  • this image monitor system consists of a network camera 4 (image pickup device) consisting of multiple cameras la, lb '', a shooting communication network (NW) 2 and a controller 3.
  • the center 6 is connected to the monitoring center 7 via the circuit switched connection Internet 8, and further connected to the portable telephone 9 or personal computer 10 via the Internet 8.
  • Fig. 2 an example in which only one set of net cameras 4 is connected to the center 6 is shown, but a plurality of net cameras 4 may be connected to the center 6.
  • This shooting communication network 2 is realized by, for example, wired LAN (Local Area Network), wireless LAN, B1 etooth (registered trademark), infrared communication, etc.
  • a communication network by a wireless communication method such as wireless LAN, B 1 uetooth (registered trademark) or infrared communication is preferable.
  • the communication network 5 connecting the controller 3 and the center 6 is, for example, a public network such as a telephone network, the Internet, or a mobile phone packet communication network. It is realized by a network or a wide area dedicated network.
  • Cameras l a, l b... are devices having a function of performing processing related to imaging, which will be described later in detail. Such cameras l a, l b ... are installed at places where it is necessary to take surveillance images. Also, the images taken by the cameras la, lb ... are immediately transmitted to the controller 3 via the photographing communication network 2.
  • the controller 3 controls the conversion processing of image data transmitted from the cameras 1a and 1b, which will be described in detail later.
  • the controller 3 receives image data from a plurality of cameras 1 a, 1 b,... And performs timely conversion processing on these image data.
  • the controller 3 transmits image data acquired from the cameras 1 a, 1 b,... To the center 6 via the communication network 5 in a timely manner.
  • the controller 3 also has a function to issue a command related to control of the photographing operation in the cameras 1a, 1b.
  • the center 6 centrally manages image data transmitted from the plurality of cameras l a, l b ... via the controller 3.
  • Examples of processing in the center 6 include storage processing of received image data, processing for activating an alarm upon occurrence of an abnormality, processing for communication, processing for control instruction to the controller 3, and the like.
  • the center 6 since the center 6 is connected to the monitoring center 7 (computer) installed at the security company, for example, via the circuit switched connection or the Internet 8, it is transmitted from the center 6. With this information, it is possible for the security company to understand the monitoring situation by each of the cameras 1 a, 1 b, ..., for example, it becomes possible to guard when away from home.
  • the image monitor system of the above configuration is applied to, for example, a general house, each camera 1a, 1b,...
  • a system may be considered in which 3 is installed at a predetermined position such as a living room or entrance, or at a place where several houses in a neighborhood can be managed collectively.
  • the monitoring condition in each of the cameras 1a, 1b,... can be controlled by the controller 3 and can be centrally managed by the center 6.
  • FIG. 3 is a block diagram showing the functional configuration of the cameras 1a and 1b and the controller 3 constituting the net camera 4.
  • the cameras la and lb have the CMOS image sensors 12a and 12b (imaging units), the imaging control units 13a and 13 (imaging units), and GPS (Global Positioning System) / LPS (Local Positioning System) ⁇ p 2 a a, 21 b (self position detection unit), and non-contact ID (Identification) 1 C hip reading unit 2 2 a, 2 2 b (self position And a detection unit).
  • the controller 3 connected to the cameras la and lb via the photographing communication network 2 includes an operation control unit 17 (area determination unit, imaging operation restriction unit), an output conversion unit 18 (imaging unit), and a communication unit. 1 9 (imaging unit), and operation restriction condition setting unit 2 0 (area determination unit).
  • CMO S image sensor 1 2 a, 1 2 b convert input light into electrical signal It is a block called a so-called imager, which converts the surrounding image into electrical signals.
  • the CMOS image sensor 1 2 a, 1 2 b is provided with a lens' stop for imaging.
  • the CMOS image sensors 12a and 12b may be configured by other solid-state imaging devices such as CCDs, image pickup tubes, and the like.
  • the imaging control unit 13a, 13b controls the imaging operation of the CMOS image sensor 12a, 12b, or processes the image signal captured by the CMOS image sensor 12a, 12b.
  • the imaging control unit 13a, 13b composed of a CPU (Central Processing Unit) is photographed by the CMOS image sensor 12a, 12b.
  • CPU Central Processing Unit
  • AGC Automatic gain control
  • AGC Automatic gain control
  • a / D conversion unit that converts the image data as the analog signal into a digital signal
  • the sync (sync) generator that generates the basic sync clock, and the operation timing of each of the CM OS image sensors 1 2 a and 1 2 b and the A / D converter based on the sync clock generated by this sync generator.
  • Specify the time It includes a timing generator that generates the ringing signal, a communication unit that communicates with the controller 3 via the shooting communication network 2, and a buffer memory that adjusts the data transfer rate according to the communication speed of this communication unit. It is.
  • the communication unit communicate by a wireless system such as a wireless LAN compliant with IEECE02.l i b, a Bluetooth (registered trademark), an infrared communication, or the like.
  • a wireless system such as a wireless LAN compliant with IEECE02.l i b, a Bluetooth (registered trademark), an infrared communication, or the like.
  • the imaging control units 1 3 a and 1 3 b are used for the CMOS image sensor 1 2 It controls the lens' aperture provided in a and 12 b, the control of the start of shooting for the timing generator, the control of the shutter speed, and the control of the shutter interval at the time of continuous shooting. These controls are performed based on command data received from the controller 3.
  • G P SZL P S sections 21 a and 21 b are configurations for detecting or specifying the current position of cameras la and lb, respectively, absolutely or relatively.
  • GPS is a known configuration that receives radio waves from multiple satellites and calculates its own position by analyzing the received wave conditions (waveform, timing, intensity, etc.). It is a well-known configuration that receives radio waves from a transmitter and calculates its own position by analyzing the received wave conditions (waveform, timing, intensity, etc.).
  • the GPS / LPS unit 21a and 21b As a more primitive form of the GPS / LPS unit 21a and 21b, only the distance from the transmitter is detected based on the reception intensity of the radio wave transmitted from a single transmitter. Configuration etc. can also be adopted.
  • the contactless ID—C hip reading unit 22a, 22b detects the current position of the camera la, lb as well as the GPS unit 21a, 21b, respectively. is there.
  • Contactless ID—C hip reading unit 2 2 a, 2 2 b detects radio waves including transmitter identification (ID) information transmitted from ID—C hip (transmitter) installed around it. Possibly, the ID of the neighbor—C hip is identified to detect its own position.
  • ID—C hip transmitter identification
  • I D-C h i p may be provided in an unobtrusive place such as inside a wall, as long as it can transmit radio waves.
  • the cameras la and lb have both the GP SZL PS units 21a and 21b and the non-contact ID-C hip reading units 22a and 22b. But all of these are different It is common in that it has the function of detecting its own position based on the above, so either one can be omitted.
  • the operation control unit 17 is a camera l a, 1 b ⁇ (G P SZ L P S section 2 1 a,
  • the camera is an information processing block that alternatively determines whether the position of the camera la or lb is inside or outside the specified area, and is realized by a CPU or the like.
  • the operation control unit 17 gives command data to the imaging control units 1 3 a and 1 3 b via the imaging communication network 2.
  • Limit the imaging operation of the camera la, lb For example, the camera la, 1 b can be instructed not to accept the user's imaging instruction, or the CMOS image sensor 12 a, 12 b can be instructed to stop the power supply.
  • the operation control unit 17 does not command the cameras 1 a and 1 b, but instructs the output conversion unit 18 and the communication unit 19 which will be described later, and the photographed image data transmitted from the cameras la and lb Image processing is performed, or the captured image data is deleted (discarded) or converted to black / white / white, so that the image data is invalidated and the imaging operation of the camera 1 a, lb is indirectly performed. Can also be limited.
  • the operation control unit 17 also has a function of identifying a legitimate user based on various types of ID information, and inactivating the restriction of the imaging operation according to the identification result. It is preferable to have For example, the operation control unit 17 stores in advance an ID number for identifying an authorized user, and obtains an ID number input by the user from the mobile phone of the user through the communication unit 1 9 described later. It is determined whether the two match. If it is determined that the two match, that is, if the user gives the correct ID information, the operation control unit 17 reads the GPS ZL PS unit 2 1 a, 2 1 b or the contactless ID—C hip read The imaging operation is not limited regardless of the detection results of the end portions 2 2 a and 2 2 b.
  • the ID information may be a password composed of a combination of 'letters, numbers, symbols, etc., and biometric information including fingerprints and voiceprints.
  • biometric information including fingerprints and voiceprints.
  • a data conversion unit 18 converts the image data transmitted from the cameras 1 a and 1 b into a format ⁇ format suitable for digital communication such as, for example, the Moving Picture Experts Group (MP EG) format. 3 ⁇ 4> in the block to do
  • MP EG Moving Picture Experts Group
  • the output conversion unit 18 can also perform data conversion to convert the image data transmitted from the cameras 1a and 1b into a method / format according to the external display means.
  • the output conversion unit 18 may convert image data transmitted from the camera la or lb into an NT SC method suitable for television input, or an RGB method suitable for computer monitor input. it can.
  • the RGB method is suitable for high image quality display because it has good color separation characteristics. There is.
  • the communication unit 19 is a communication interface for communicating with an external device, and is configured of, for example, a modem or a terminal adapter.
  • the communication unit 19 appropriately transmits the image data converted by the output conversion unit 18 to the center 6 (see FIG. 2) via the communication network 5, and also receives various data from the center 6.
  • the operation restriction condition setting unit 20 is a block in which an area where the cameras l a and l b should be positioned is set in advance as a defined area, and the contents thereof are stored. Examples of setting the defined area include the condition “within radius R (m) from point A” and the condition “latitude is X 1 to X 2 and longitude is Y 1 to Y 2”.
  • the blocks such as the operation control unit 17, the output conversion unit 18, and the operation restriction condition setting unit 20 can be realized by a CPU or a peripheral circuit that executes and calculates an appropriate software. These configurations are integrated with the cameras 1a and 1b and the communication unit 1 9 to convert input light and obtain photographed image data.
  • More than one camera l a,:! The configuration of the network camera 4 composed of the (imaging side device), the imaging communication network 2 (wireless communication), and the controller 3 (control side device) has been described. According to such a configuration, a large number of low cost cameras la, lb, ... having simple configuration can be installed, and these can be collectively managed by the controller 3. It is possible to perform many area imaging.
  • controller instead of the net camera 4, a single camera 1 1, photographing communication network (NW) 2, controller It is also possible to adopt a configuration in which 3 'is connected to center 6.
  • the camera may adopt a form in which the configuration provided in the cameras 1 a 1 1 b... And the controller 3 is integrally stored in a housing.
  • the camera 1 1 is a CMO image sensor 1 2, an AGC 1 3, a sink generator 1 4, a timing generator 1 5, an A / D conversion part 1 6, an operation control part 1 7,
  • An output conversion unit 18, a communication unit 19, an operation restriction condition setting unit 20, a GP SZL PS unit 21, and a noncontact ID-Chip reading unit 22 are provided.
  • the details of each configuration of the camera 11 are the same as those of the cameras 1a, 1b,... And the controller 3 described above, including the configuration to which a new member number is assigned, and therefore the description will not be repeated here.
  • the above-mentioned power camera 11 realizes all the functions of the camera la, lb ... and the controller 3, so that the shooting communication network 2 '(the same as the shooting communication network 2 mentioned above, wired ⁇ wireless LAN
  • the controller 3 'connected via a single signal line or the like may transmit the image data transmitted from the camera 11 to the center 6. It is possible to omit the controller 3 'and adopt a form in which the camera 11 directly communicates with the center 6.
  • Fig. 4 is a flow chart showing an example of the operation flow when the net camera 4 and the camera 11 (hereinafter collectively referred to as cameras) detect their own positions.
  • registration of various camera settings and shooting (imaging) activation request can be performed from a cellular phone or PDA (Personal Digital Assistants) (hereinafter collectively referred to as a portable terminal etc.).
  • PDA Personal Digital Assistants
  • a vibration sensor or the like attached to the window may request the camera to start shooting.
  • the setting registration and the camera In this communication we will use the WE B (browsing) function of a portable terminal etc.
  • the motion control unit 1 7 legal user identification information storage unit, user determination unit
  • the force camera obtains the above-mentioned ID information and password (PASSWORD) from the user, thereby allowing the authorized user to be identified. It shall be identified.
  • step 41 when a connection from a portable terminal or the like is made (step 41, hereinafter referred to as S41), the camera side acquires ID information and a password from the user (camera administrator) and It authenticates (determines) whether it is a user or not.
  • the ID information and password may be acquired from the portable terminal or the like, or may be acquired through a ten key or the like appropriately provided on the camera. If it is determined that the user is a legitimate user (OK) as a result of the authentication, the process proceeds to the next step (S 4 3 a), while if it is determined that the user is not a legitimate user (NG), the camera Refuse to set the operation restriction condition for and terminate the process (S 4 3 b).
  • an operation restriction condition transmitted from a portable terminal or the like is set and registered in the camera (operation restriction condition- ⁇ fixed unit 20) (S 4 3 a).
  • a shooting start request source ⁇ identifying a mobile terminal or the like (a shooting start request source) that has been authorized for authentication ⁇ Register D (for example, the caller's phone number).
  • Register D for example, the caller's phone number.
  • the camera is in a shooting standby state (S 4 4), and if there is a shooting start request from various sensors, a portable terminal or the like, this is received (S 4 5).
  • Various types of mobile terminals and the like transmit the shooting start request source ID to the camera together with a shooting start request.
  • the camera collates and checks whether the received imaging start request source ID matches the one registered in advance in S 43 a (S 46). As a result of the comparison, if the two do not match, the camera (operation control unit 1 7) performs the determination according to the current position described above, limits the shooting operation based on this, and disables shooting (S 4 7 a).
  • the camera interprets the shooting start request as a forced instruction by an authorized user and performs shooting operation.
  • Start (S 4 7 b), and send the captured image to Center 6 (see Fig. 2) (S 4 8).
  • the image monitoring by receiving the photographed image is performed at the center 6 or the monitoring center 7 (hereinafter collectively referred to as a center etc.).
  • Fig. 5 shows that when the camera detects its own position, the external positioning system (for example, the GP SZL PS unit 21a, 21b captures a part of the calculation necessary for calculating the current position).
  • 18 is a flowchart showing an example of an operation flow in the case of making an inquiry (calculation request of position information) to an information processing system etc.).
  • the camera receives an imaging start request (S 5 5) and then the external positioning system (the above-mentioned portable terminal etc. Request location information (S 5 6).
  • the camera (operation control unit 1 7) that has received the position information from the positioning system in response to this request determines whether the current position (own position) is inside or outside of the defined area (registered place). Determine (check) (S 5 7). As a result of this determination, if the current position is outside the prescribed area (mismatch with the registered location), the camera (operation control unit 17) restricts the shooting operation and disables shooting (S5). 8 a).
  • the current position is inside the specified area (matches with the registered place
  • the camera starts the photographing operation in response to the photographing start request (S 58 b), and sends the photographed image to the center 6 or a portable terminal (S 59).
  • an image is monitored by receiving a photographed image at a center, a portable terminal or the like.
  • FIG. 10 is a flowchart showing an example of operation when using each of the electric field strength measurement and utilization method.
  • the camera periodically checks the transmission information (S 62 a). . After that, the camera confirms its own position by confirming the read out ID information (S 6 3 a), and sets operation restriction conditions according to the contents of the confirmation. In other words, ID information is available at If the camera can not be confirmed (in the case of confirmation NG), the camera determines that its own position is out of the specified area, and that effect (restriction of the photographing operation is necessary) is regarded as a restriction implementation state (operation restriction condition setting unit 20) ) To register (S64).
  • the field strength measurement method uses a special position detection unit such as 0 3 1 1 ⁇ 3 2 1 & 2 lb or contactless ID-C hip reading 2 2 a 2 2 b, etc.
  • a controller When wireless communication is performed between the camera and controller 3 and controller 3 '(hereinafter collectively referred to as a controller), a method for detecting a change in distance between the two by detecting the radio wave intensity is used.
  • the defined area is defined by the distance between the camera and the controller, and when the distance between the two is equal to or more than a predetermined value, the force camera is outside the defined area. It is determined that For example, in Fig. 2, the radio wave intensity between camera la and lb and controller 3 (shooting communication network 1) and between camera 11 and controller 3 '(shooting communication network This method can be realized by measuring the radio wave intensity of 2 ').
  • the specific procedure is as follows.
  • the controller measures the electric field strength in wireless communication with the camera, and transmits the measurement result to the camera (S 61 b).
  • the camera side communicates with the controller by transmitting radio waves periodically, and receives the measurement result (S 62 b).
  • the camera confirms its own position by confirming the received measurement result (by comparing the received intensity with a predetermined value).
  • Check (S 6 3 b) and set the operation restriction condition according to the content of the check. That is, if the measurement result can not be confirmed in S63 b (field intensity is less than the predetermined value: confirmation NG time), the camera determines that its own position is out of the specified area, and that effect.
  • a restriction is required) is registered as the restriction enforcement state (in the operation restriction condition setting unit 20) (S 64).
  • the camera determines that its own position is within the specified area, and that effect Is not required) and is registered as the restriction not implemented state (in the operation restriction condition setting unit 20) (S 6 5) 0
  • the power camera starts the shooting operation (S 70 b) and sends the shot image to the center 6 (see FIG. 2) (S 7 1).
  • the image monitoring is performed at the center or the like by the reception of the photographed image.
  • the GPS / LPS unit 2 1 The current position of the camera is detected by a, 21 b or non-contact ID—C hip reading unit 22 a> 22 b, and the movement control unit 17 detects its own position as the detection result. If it is determined whether it is inside or outside the defined area, and if it is determined that its own position is outside the defined area, the imaging operation of the camera is restricted. Therefore, when the camera is moved out of the defined area, the imaging unit of the force camera is restricted in its imaging operation.
  • a self position detection step of detecting a self position and a self position detected in the self position detection step are within a defined area.
  • the area determining step determines whether there is an area or the outside, and the area determining step determines that the user's position is outside the defined area, the image input device is converted and the captured image is processed. It can be expressed as including an imaging operation restriction step of restricting an imaging operation of an imaging unit for obtaining data.
  • the net camera 4 and the camera 11 have the same configuration as a general computer, that is, a processing unit (CPU) for processing various data, a storage unit for storing various data, and various terminals and other terminals. It can also be configured to include a communication device that communicates. In this case, various functions and operations in the network camera 4 and camera 1 1 are stored in the storage device. The program can be executed by being executed by the processing device.
  • a processing unit CPU
  • storage unit for storing various data
  • various terminals and other terminals can also be configured to include a communication device that communicates.
  • various functions and operations in the network camera 4 and camera 1 1 are stored in the storage device.
  • the program can be executed by being executed by the processing device.
  • the various programs may be in the form of reading and using what is recorded on a removable medium such as a CD-ROM, or in the form of reading out and using what is installed on a hard disk or the like. It may be.
  • the program may be downloaded via a communication network such as the Internet, installed on a hard disk, and executed.
  • the form of the imaging device to which the present invention is to be applied is not limited to an optical power camera dedicated to imaging, and various forms such as a combination machine of a cellular phone and a digital camera can be adopted.
  • the imaging unit obtains the captured image data by converting the input light, the own position detection unit detecting the own position, and the self position detection unit
  • the area determination unit determines whether the own position is inside or outside the defined area, and the area determination unit determines that the own position is outside the defined area
  • imaging of the imaging unit is performed.
  • an imaging operation restriction unit for restricting the operation.
  • the imaging unit of the imaging device is limited in its imaging operation.
  • the imaging device of the present invention can not be used even if it is stolen or the like. As a result, the risk of being the subject of theft or unauthorized use can be reduced.
  • the imaging device is configured such that the self position detection unit detects the self position based on the reception wave state.
  • the self-position detection unit receives various waves such as radio waves, ultrasonic waves, infrared rays, and the like, and the imaging device of the present invention receives the waves based on the reception state such as strength, waveform, The own position is detected.
  • the imaging device detects its own position wherever it can receive a wave, and imaging is performed when the imaging device is moved out of the area where it should be located. Further, as described above, in the above configuration, the self-position detection unit detects its own position based on a plurality of different reception wave states. Configuration.
  • the imaging device can detect its own position based on two or more types of received wave states different in frequency and waveform, the principle of triangulation and the dry walk state of the received wave can be detected. It is possible to perform highly accurate position detection.
  • G p S can be mentioned.
  • the own position can be detected more accurately.
  • the imaging device includes: an authorized user identification information storage unit that stores authorized user identification information; and user identification information acquired from the user. But with the legitimate user identification information And a user determination unit that determines whether or not the user identification unit matches the user operation unit, the imaging operation restriction unit, the user determination unit, the user identification information acquired from the user, and the regular user identification information Whenever it is determined that they match, the imaging operation of the imaging unit is not limited.
  • user identification information refers to general specific information for identifying a user.
  • biometric information including fingerprints and voiceprints if it is a path consisting of a combination of letters, numbers, and symbols.
  • the legitimate user identification information is stored in advance in the legitimate user identification information storage unit, and is collated with the user identification information acquired from the user.
  • the imaging operation restriction unit is configured to: Regardless of the position (self position), the imaging operation of the imaging unit is not always restricted.
  • an effect is obtained that an authorized user can always perform imaging without being interrupted by the imaging operation even when the imaging device is moved.
  • an imaging apparatus including the imaging unit and the own position detection unit, the area determination unit, and the imaging operation restriction.
  • the control side apparatus provided with the unit is configured as a separate apparatus, and the imaging side apparatus and the control side apparatus are connected via wireless communication.
  • the imaging system includes the imaging device having the above configuration, and a server computer that receives the photographed image information transmitted from the imaging device.
  • the self position detected in the self position detection step and the self position detected in the self position detection step are inside or outside the defined area.
  • the area determination step determines whether there is an area, and the area determination step determines that the own position is outside the defined area, the light input in the imaging device is converted to obtain photographed image data.
  • the method is provided with an imaging operation limiting step of limiting the imaging operation of the imaging unit. Therefore, when the imaging device is moved outside the defined area, the imaging unit of the imaging device is restricted in the imaging operation.
  • the imaging device As a result, if the imaging device is moved out of the area where it should be located, imaging becomes impossible. Therefore, when the imaging device is stolen or the like, it is used for illegal photography that violates voyage photography and privacy. It has the effect of being able to prevent Further, according to the control method of the image pickup apparatus according to the present invention, since the image pickup apparatus can not be used even if it is stolen, it is possible to reduce the risk itself which is the object of theft or illegal use. Play together.
  • the control method of the imaging apparatus according to the present invention is the above.
  • the self-position detection step is a method of detecting the self-position based on a received wave state.
  • various waves such as radio waves, ultrasonic waves, and infrared rays are received by the self position detection step, and the imaging device's state is detected based on the reception state, eg, intensity, waveform, frequency, interference state, etc.
  • the own position is detected.
  • the imaging device detects its own position wherever it can receive a wave, and imaging is performed when the imaging device is moved out of the area where it should be located.
  • the self position detection step may be performed based on a plurality of different reception wave conditions. It is a method of detecting a position.
  • the imaging device can detect its own position based on two or more types of received wave states different in frequency and waveform, based on the principle of triangulation and the interference state of the received wave, etc. It is possible to perform highly accurate position detection.
  • the step of storing the authorized user identification information storing the authorized user identification information, and the acquisition from the user And a user determining step of determining whether or not the registered user identification information matches the authorized user identification information, wherein the imaging operation limiting step is the user determining step acquired from the user.
  • the method does not limit the imaging operation of the imaging unit.
  • the matching of the regular user identification information stored in advance in the regular user identification information storage stage with the user identification information acquired from the user is determined by the user determination stage. Will take place.
  • the imaging operation restriction stage determines the current position of the imaging apparatus (self position) regardless of the imaging operation restriction stage.
  • the imaging device is controlled so as not to always limit the imaging operation of the imaging unit.
  • an effect is obtained that an authorized user can always perform imaging without being disturbed by the imaging operation even when moving the imaging device.
  • control program of an imaging device is a computer program for causing a computer to function as each part of the imaging device.
  • a computer readable recording medium recording the control program of the imaging device is a computer readable recording medium recording the control program for causing a computer to function as each part of the imaging device. is there.
  • control program for the imaging device read out from the recording medium has the effect that the imaging device can be realized by a computer.
  • the imaging device since imaging becomes impossible when the imaging device is moved out of the area where it should be located, it can be prevented from being used for illegal photography that violates voyage and privacy.
  • the imaging device since the imaging device can not be used even if it is stolen, the imaging device, the imaging system, the imaging device control method and control program, and the imaging device capable of reducing the risk itself for theft or unauthorized use.
  • a recording medium recording the program is provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

明 細 書 撮像装置、 撮像システム、 撮像装置の制御方法及び制御プログラム、 並びに該プロダラムを記録した記録媒体 技術分野
本発明は、 領域監視などに用いられる撮像装置、 撮像システム、 撮像 装置の制御方法及び制御プログラム、 並びに該プログラムを記録した記 録媒体に関するものである。
背景技術
社屋、 店舗、 家屋などの特定領域を対象と して設置カメラによる撮像 を行い、 その撮像情報を用いて監視/管理サービスや各種のサービス提 供を行う画像モニタシステム (撮像システム) が急速に普及しつつある 。 このよ うな画像モニタシステムは、 複数の箇所に設置されたカメラと 、 これらカメラを統括管理する監視サーバとから構成される。 そして、 各カメラによって撮影された画像情報が通信ネッ トワークを介して監視 サーバに送信され、 監視サーバによって異常の有無が判定される。
このよ うな画像モニタシステムの適用範囲は極めて広く、 例えばカメ ラを動物 (ペッ ト) 型ロボッ トの内部に組み込むことにより、 居住者に 違和感を与えることなく家屋内を監視するシステムも出現している。 前記従来の画像モユタシステムによれば、 設置カメ ラを通じて各所の 自動撮影や遠隔撮影によるモニタ リ ングが可能になるものの、 次のよ う な問題点が存在していた。 悪意者や子供によって、 設置カメラが無断で持ち去られた場合、 単に 、 目的領域のモニタリ ングができなくなるだけでなく、 盗難されたカメ ラが盗撮やプライバシーを侵害するよ うな不正撮影に悪用されるおそれ がある。 特に、 設置カメラが携帯容易な形態 (例えばワイヤレスタイプ や電灯線接続タイプ) である場合には、 カメラが上記盗難や悪用の対象 となるリスクが極めて大きく なる。
以上のような、 設置カメ ラに対する盗難 , 悪用の問題は、 画像モニタ システムを社会全体に普及させる うえでの障害であり、 解決すべき最重 要課題となっていた。 発明の開示
本発明は、 上記の問題点を解決するためになされたもので、 その目的 は、 設置カメ ラの盗難等による不正使用の防止を図る撮像装置、 撮像シ ステム、 撮像装置の制御方法を提供することにある。
上記の目的を達成するために、 本発明に係る撮像装置は、 入力された 光を変換処理して撮影画像データを得る撮像部と、 自位置を検出する自 位置検出部と、 前記自位置検出部が検出した自位置は規定領域の内部で あるか外部であるかを判定する領域判定部と、 前記領域判定部が、 自位 置は前記規定領域の外部であると判定した場合、 前記撮像部の撮像動作 を制限する撮像動作制限部とを備えることを特徴と している。
上記の構成において、 入力された光を変換処理して撮影画像データを 得る撮像部とは、 C C D ( Charge Coupled Dev i ce) 素子, C M O S素 子などの受光素子の他、 レンズを含む光学系、 上記受光素子で得られた 信号に各種の変換処理を施す信号処理系などから構成されるものである 前記自位置検出部は、 自位置 (撮像装置の位置) を絶対的または相対 的に特定する構成であれば、 特に限定されないが、 各種の G P S ( Global Positioning System) / L P S (Local Positioning System) の他、 基準局からの発信波動 (電波, 超音波, 赤外線など) の強度を測 定することによって、 前記基準局からの距離を検出する構成 (電界強度 測定利用方式) などを採用することができる。
. 前記領域判定部は、 前記自位置検出部が検出した自位置を、 あらかじ め定められた規定領域と対比することによ り、 自位置 (撮像装置の位置 ) が規定領域の内部であるか外部であるかを択一的に判定する構成であ つて、 各種の演算手段や情報処理手段によって実現される。 ここで、 規 定領域とは、 例えば、 A地点から半径 R (m) 以内の領域のよ うに規定 する他、 例えば、 緯度, 経度に対してそれぞれ所定の数値範囲を定めて もよい。
また、 前記撮像動作制限部は、 前記領域判定部が自位置は規定領域の 外部であると判定した場合、 指示信号の付与などを通じて、 前記撮像部 の撮像動作を制限する構成である。 ここで、 撮像動作の制限態様と して は種々の態様が考えられるが、 例と して、 撮像ポタン入力を受け付けな い態様、 撮像装置の電源をオフ状態でロックする態様、 撮影画像データ にモザイク処理を施したり、 撮影画像データを消去 (破棄) または黒一 色 · 白一色にしたりすることによって、 撮影面像を確認不能とする態様 などが挙げられる。
上記の構成によれば、 前記自位置検出部によって、 撮像装置の現在位 置が検出され、 前記領域判定部によって、 前記検出結果である自位置は 規定領域の内部であるか外部であるか判定される。 この結果、 自位置が 規定領域の外部であると判定されれば、 前記撮像動作制限部によって前 記撮像部の撮像動作が制限される。 したがって、 撮像装置が規定領域の 外部に移動されたときには、 撮像装置の撮像部はその撮像動作を制限さ れる。
これにより、 撮像装置が本来位置すべき領域の外部に移動された場合 には撮像が不能になるので、 利用者 (管理者) が予期しないシーンが撮 影されるなどの、 盗撮やプライバシーを侵害するような不正撮影に用い られることを防止することができる。 また、 本発明の撮像装置によれば 、 撮像装置を盗難等しても使用できないことになるので、 盗難や不正使 用の対象となる リ スク自体を低減することができる。
なお、 前記撮像装置の形態は特に限定されるものではなく、 全ての構 成を筐体に一体格納した形態であってもよいし、 いわゆるネッ トカメラ のよ う に、 撮像ュ-ッ トとコントローラユニッ トが分離され、 無線通信 などを介して、 前記撮像ュニッ トと前記コン トローラユニッ トとが接続 される形態であってもよい。
また、 本発明に係る撮像システムは、 前記撮像装置と、 該撮像装置か ら送信された撮影面像情報を受信するサーバコンピュータとからなるこ とを特徴と している。
上記の構成によれば、 前記の作用効果に加えて、 撮像装置による撮影 画像情報を遠隔のサーバコンピュータにおいて利用することができる。 また、 本発明に係る撮像装置の制御方法は、 自位置を検出する自位置 検出段階と、 前記自位置検出段階において検出した自位置は規定領域の 内部であるか外部であるかを判定する領域判定段階と、 前記領域判定段 階が、 自位置は前記規定領域の外部であると判定した場合、 撮像装置に おいて入力された光を変換処理して撮影画像データを得る撮像部の撮像 動作を制限する撮像動作制限段階とを備えることを特徴と している。 上記の方法において、 入力された光を変換処理して撮影画像データを 得る撮像部とは、 C C D素子, CMO S素子などの受光素子やレンズを 含む光学系、 前記受光素子で得られた信号に各種の変換処理を施す信号 処理系などから構成されるものである。
前記自位置検出段階では、 各種の G P S ( Global Positioning System) /L P S (Local Positioning System) の他、 基準局力 らの発 信波動 (電波, 超音波, 赤外線など) の強度を測定することによって、 前記基準局からの距離を検出する手段などで自位置 (撮像装置の位置) を絶対的または相対的に特定する。
前記領域判定段階では、 前記自位置検出段階で検出した自位置を、 あ らかじめ定められた規定領域と対比することによ り、 自位置 (撮像装置 の位置) が規定領域の內部であるか外部であるかを択一的に判定する。 ここで、 規定領域とは、 例えば、 A地点から半径 R (m) 以内の領域の ように規定する他、 例えば、 緯度, 経度に対してそれぞれ所定の数値範 囲を定めてもよい。
また、 前記撮像動作制限段階では、 前記領域判定部段階にて自位置は 規定領域の外部であると判定した場合、 電気信号の付与などを通じて、 撮像部の撮像動作を制限する。 ここで、 撮像動作の制限態様と しては種 々の態様が考えられるが、 例と して、 撮像ポタン入力を受け付けない態 様、 撮像装置の電源をオフ状態でロックする態様、 撮影画像データにモ ザイク処理を施したり、 撮影画像データを消去 (破棄) または黒一色 - 白一色にしたりすることによって、 撮影画像を確認不能とする態様など が挙げられる。
上記の方法によれば、 前記自位置検出段階にて、 撮像装置の現在位置 が検出され、 前記領域判定段階にて、 前記検出結果である自位置は規定 領域の内部であるか外部であるか判定される。 この結果、 自位置が規定 領域の外部であると判定されれば、 前記撮像動作制限段階にて撮像部の 撮像動作が制限される。 したがって、 撮像装置が規定領域の外部に移動 されたときには、 撮像装置の撮像部はその撮像動作を制限される。
これにより、 撮像装置が本来位置すべき領域の外部に移動された場合 には撮像が不能になるので、 撮像装置が盗難された場合などに、 盗撮や プライバシーを侵害するような不正撮影に用いられることを防止するこ とができる。 また、 本発明に係る撮像装置の制御方法によれば、 撮像装 置を盗難等しても使用できないことになるので、 盗難や不正使用の対象 となる リ スク 自体を低減することができる。
また、 本発明に係る撮像装置の制御プログラムは、 コンピュータを前 記撮像装置の各部と して機能させるためのコンピュータプログラムであ る。
上記の構成によれば、 コンピュータを前記撮像装置の各部と して機能 させるこ とによって、 前記撮像装置を実現することができる。
また、 本発明に係る撮像装置の制御プログラムを記録したコンビユ ー タ読取り可能な記録媒体は、 コンピュータを前記撮像装置の各部として 機能させるための制御プログラムを記録したコンピュータ読取り可能な 記録媒体である。
上記の構成によれば、 前記記録媒体から読み出された撮像装置の制御 プログラムによって、 前記撮像装置をコンピュータで実現することがで さる。
本発明のさらに他の目的、 特徴、 および優れた点は、 以下に示す記載 によって十分に理解されるであろう。 また、 本発明の利益は、 添付図面 を参照した次の説明で明白になるであろう。 図面の簡単な説明
図 1 は、 本発明の実施の一形態に係るカメラ (撮像装置) の構成を示 す模式図である。
図 2は、 本発明の実施の一形態に係る画像モニタ システム (撮像シス テム) の構成を示す模式図である。
図 3は、 本発明の実施の一形態に係るネッ トカメラ (撮像装置) の構 成を示す模式図である。
図 4は、 カメラが自 ら自位置を検出する場合の動作フロ一例を示すフ ローチャートである。
図 5は、 カメ ラが自位置を検出する際に、 外部のポジショニングシス テムに問い合わせを行う場合の動作フロー例を示すフローチャートであ る。
図 6は、 カメ ラが自位置の検出に、 非接触 I D— C h i p利用方式と 電界強度測定利用方式とをそれぞれ利用する場合の動作フロー例を示す フローチヤ一トである。
発明を実施するための最良の形態
本発明の実施の一形態について図面に基づいて説明すれば、 以下のと おりである。
[ 1 . システム構成]
本実施形態に係る画像モニタシステム (撮像システム) は、 図 2 に示 すような構成となっている。 すなわち、 この画像モニタシステムは、 複 数のカメラ l a , l b '", 撮影通信ネッ トワーク (NW) 2 , コント口 ーラ 3から構成されるネッ トカメラ 4 (撮像装置) が、 通信ネッ トヮー ク 5を介してセンタ 6 (サーバコンピュータ) と接続された構成である 。 同図に示されるよ うに、 ネッ トカメラ 4のかわりに、 単一のカメラ 1 1 , 撮影通信ネッ トワーク (NW) 2 ' , コン トローラ 3 ' を、 センタ 6 と接続する構成を採用することもできる。
センタ 6 は、 回線交換接続ゃィンターネッ ト 8 を介して監視センタ 7 と接続され、 さ らにインターネッ ト 8を介して携帯電話機 9やパーソナ ルコンピュータ 1 0 と接続されている。 なお、 図 2では、 センタ 6には ネッ トカメ ラ 4が 1組だけ接続された例が示されているが、 複数のネッ トカメラ 4…がセンタ 6に接続されていてもよレ、。
複数のカメラ l a, l b…とコントローラ 3 とは、 撮影通信ネッ トヮ ーク 2を介して通信可能に接続されている。 この撮影通信ネッ トワーク 2は、 例えば有線 L AN (Local Area Network) 、 無線 L AN、 B 1 e t o o t h (登録商標) 、 赤外線通信などによって実現されるが、 力 メ ラ l a , 1 b…の設置の自由度などを考慮すれば、 無線 L AN、 B 1 u e t o o t h (登録商標) 、 赤外線通信などの無線通信方式による通 信ネッ トワークの方が好ましい。
また、 コントローラ 3 とセンタ 6 とを接続する通信ネッ トワーク 5は 、 例えば電話網、 インターネッ ト、 携帯電話パケッ ト通信網などの公衆 網や、 広域の専用回線網などによって実現される。
カメラ l a , l b…は、 詳細は後述するが、 撮像に関する処理を行う 機能を備えた装置である。 このよ うなカメラ l a, l b…が、 監視画像 の撮影が必要とされる箇所に設置される。 また、 このカメラ l a , l b …によって撮影された画像は、 即座に撮影通信ネッ トワーク 2を介して コントローラ 3に送信される。
コントローラ 3は、 詳細は後述するが、 カメ ラ 1 a , 1 bから送信さ れる画像データの変換処理などを統括するものである。 このコン トロー ラ 3は、 複数のカメラ 1 a , 1 b…からの画像デ一タを受信し、 これら の画像データに対して適時変換処理を行う。 また、 コン トローラ 3は、 カメ ラ 1 a , l b…から取得した画像データを適時通信ネッ トワーク 5 を介してセンタ 6に対して送信する。 さ らに、 コン トローラ 3は、 カメ ラ 1 a , l b…における撮影動作の制御に関する指令を行う機能も有し ている。
センタ 6は、 複数のカメラ l a , l b…からコン トローラ 3を介して 送信されてきた画像データを統括管理するものである。 センタ 6におけ る処理と しては、 例えば、 受信した画像データの保存処理や、 異常発生 時の警報の発動処理ならぴに連絡処理や、 コン トローラ 3に対する制御 指示処理などが挙げられる。
また、 センタ 6は、 前述のよ うに、 回線交換接続やインタ一ネッ ト 8 を介して、 例えば警備会社に設置された監視センタ 7 (コンピュータ) と接続されているので、 センタ 6から送信されてく る情報によって、 警 備会社において各力メラ 1 a, l b…による監視状況を把握することが 可能となり、 例えば留守中の警備などが可能となる。 以上のよ うな構成の画像モニタシステムを、 例えば一般家屋において 適用した場合、 各カメラ 1 a, 1 b…を、 例えば玄関、 窓、 庭、 ベラン ダなどの領域を監視する位置に設置し、 コントローラ 3を、 例えば居間 や玄関などの所定の位置や、 あるいは近所の家屋数軒分をまとめて管理 できる箇所に設置するシステムが考えられる。 このようなシステムによ れば、 各カメ ラ 1 a, 1 b…における監視状況は、 コン トローラ 3によ つて制御され、 さらにセンタ 6によって一元的に管理することが可能と なる。
[ 2. カメラの構成]
次に、 ネッ トカメラ 4の構成について、 図 3を用いながらより詳しく 説明する。
図 3は、 ネッ トカメ ラ 4を構成するカメ ラ l a , l bおよびコン ト口 ーラ 3 の機能的構成を示すブロック図である。 同図に示すよ うに、 カメ ラ l a, l bは、 それぞれ CMO Sイメージセンサ 1 2 a , 1 2 b (撮 像部) と、 撮像制御部 1 3 a , 1 3 (撮像部) 、 G P S (Global Positioning System) /L P S (Local Positioning system) 咅 p 2 丄 a , 2 1 b (自位置検出部) 、 および非接触 I D (Identification) 一 C h i p読みと り部 2 2 a , 2 2 b (自位置検出部) とを備えている。 また、 カメラ l a , l b と撮影通信ネッ トワーク 2を介して接続され るコントローラ 3は、 動作制御部 1 7 (領域判定部, 撮像動作制限部) 、 出力変換部 1 8 (撮像部) 、 通信部 1 9 (撮像部) 、 動作制限条件設 定部 2 0 (領域判定部) を備えた構成となっている。
まず、 カメラ l a , l bにおける各構成について説明する。 CMO S イメージセンサ 1 2 a , 1 2 bは、 入力された光を電気信号に変換する ことによつて周囲の画像を電気信号に変換する、 いわゆるイメージャと 呼ばれるブロックである。 この CMO Sイメージセンサ 1 2 a, 1 2 b には、 結像のためのレンズ ' 絞り部が備えられる。 CMO Sイメージセ ンサ 1 2 a , 1 2 bは、 C C Dのよ うな他の固体撮像素子や、 撮像管な どによって構成されてもよい。
撮像制御部 1 3 a , 1 3 bは、 CMO Sイメージセンサ 1 2 a, 1 2 bにおける撮像動作を制御したり、 CMO Sイメージセンサ 1 2 a, 1 2 bによって撮影された画像信号の処理を行ったりするプロックであつ て、 例えば C P U (Central Processing Unit) から構成される撮像制 御部 1 3 a , 1 3 bは、 CMO Sイメージセンサ 1 2 a, 1 2 bによつ て撮影されたアナロ グ信号の増幅ゲイ ンを 自動調整する A G C ( Automatic Gain Control) 、 前記アナログ信号と しての画像データをデ ジタル信号に変換する A/D変換部、 カメ ラ l a , l b内の各種動作の 基本となる同期クロックを生成するシンク (同期) ジヱネレータ、 この シンクジェネレータによって生成された同期クロックに基づいて、 CM O Sイメージセンサ 1 2 a, 1 2 bや前記 A/Dコンバータにおける各 動作タイ ミングを規定するタイ ミング信号を生成するタイ ミングジエネ レータ、 コントローラ 3 との間で撮影通信ネッ トワーク 2を介して通信 を行う通信部、 この通信部の通信速度に応じてデータ転送速度を調整す るバッファメモリ などを含んでいる。
なお、 前記通信部は、 例えば I E E E 8 0 2. l i bに準拠した無線 LANや、 B l u e t o o t h (登録商標) 、 赤外線通信などのワイヤ レス方式によって通信を行う ことも好ましい。
この他、 撮像制御部 1 3 a , 1 3 bは、 CMO Sイメージセンサ 1 2 a, 1 2 bに備えられるレンズ ' 絞りの制御、 前記タイ ミングジエネレ ータに対しての撮影開始の制御、 シャッター速度の制御、 連続撮影時の シャッター間隔の制御を司る。 これらの制御は、 コントローラ 3から受 信した指令データに基づいて行われる。
G P SZL P S部 2 1 a , 2 1 bは、 それぞれ、 カメ ラ l a, l bの 現在位置を絶対的または相対的に検出 · 特定する構成である。 G P Sは 複数の衛星からの電波を受信し、 この受信波状態 (波形, タイ ミング, 強度など) を解析することにより 自位置を算出する周知構成であり、 L P Sは所定領域に設けられた複数の発信機からの電波を受信し、 この受 信波状態 (波形, タイ ミング, 強度など) を解析することによ り 自位置 を算出する周知構成である。
なお、 G P S / L P S部 2 1 a , 2 1 bのよ り原始的な形態と しては 、 単一の発信機から発信される電波の受信強度に基づいて、 発信機から の距離のみを検出する構成なども採用し得る。
非接触 I D— C h i p読みと り部 2 2 a , 2 2 bは、 G P Sノ L P S 部 2 1 a , 2 1 b と同様、 それぞれ、 カメラ l a, l bの現在位置を検 出 · 特定する構成である。 非接触 I D— C h i p読みと り部 2 2 a , 2 2 bは、 周囲に設置された I D— C h i p (発信機) から発信される発 信機識別 ( I D) 情報を含む電波を検出することによ り、 近隣の I D— C h i pを特定して自位置を検出する。 I D— C h i pは電波を発信で きる場所であれば、 壁の中など目立たないところに設けてもよい。
本実施形態では、 カメラ l a , l bは、 G P SZL P S部 2 1 a , 2 1 b と非接触 I D— C h i p読みと り部 2 2 a , 2 2 b との両方を備え ているものと しているが、 これらはいずれも、 複数の異なる受信波状態 に基づいて自位置を検出する機能を有する点で共通するので、 いずれか 一方を省略することができる。
[ 3. コン ト ローラの構成]
次に、 コン トローラ 3における各構成について説明する。
動作制御部 1 7は、 カメラ l a , 1 b ··· (G P SZL P S部 2 1 a,
2 1 bまたは非接触 I D— C h i p読みと り部 2 2 a, 2 2 b ) が検出 した自位置を、 動作制限条件設定部 2 0で設置された規定領域 (条件) と対比することにより、 カメラ l a, l bの位置が規定領域の内部であ るか外部であるかを択一的に判定する情報処理プロックであって C P U などによって実現される。
前記判定の結果、 自位置が規定領域の外部であれば、 動作制御部 1 7 は、 撮影通信ネッ トワーク 2を介して撮像制御部 1 3 a, 1 3 bに指令 データを付与することによ り、 カメラ l a, l bの撮像動作を制限する 。 例えば、 カメ ラ l a, 1 bが利用者の撮影指示を受け付けないように 指令したり、 CMO Sイメージセンサ 1 2 a , 1 2 bに対する電源供給 を停止するよ うに指令したりする。
また、 動作制御部 1 7は、 カメラ 1 a , 1 bに指令するのではなく、 後述の出力変換部 1 8や通信部 1 9に指令して、 カメラ l a, l bから 送信された撮影画像データにモザィク処理を施したり、 前記撮影画像デ ータを消去 (破棄) または黒一色 · 白一色に変換したりすることにより 、 前記画像データを無効化して間接的にカメラ 1 a, l bの撮像動作を 制限することもできる。
また、 動作制御部 1 7は、 各種の I D情報に基づいて正規の利用者を 識別し、 この識別結果に応じて前記撮像動作の制限を不実施とする機能 を有することが好ましい。 例えば、 動作制御部 1 7は、 あらかじめ正規 の利用者を識別する I D番号を格納しておく と共に、 後述の通信部 1 9 を通じて、 利用者の携帯電話機などから利用者が入力する I D番号を取 得し、 両者が一致するか否かを判定する。 両者が一致すると判定された 場合、 つまり利用者が正規の I D情報を付与した場合には、 動作制御部 1 7は、 G P S ZL P S部 2 1 a, 2 1 bや非接触 I D— C h i p読み と り部 2 2 a , 2 2 bの検出結果にかかわらず、 撮像動作を制限しない ものとする。
この構成によれば、 正規の利用者は、 ネッ トカメラ 4を移動した場合 であっても撮像動作を妨げられることなく 、 常に撮像を行う ことができ る。 前記 I D情報と しては、 '文字, 数字, 記号などの組み合わせから構 成されるパスワードや、 指紋や声紋を含む生体情報などを揉用してもよ い。 もちろん、 生体情報などを採用する場合には、 適宜の入力イ ンタフ エースを設ける必要がある。
出力変換部 1 8は、 カメラ 1 a , 1 bから送信された画像データを、 例えば、 MP E G (Moving Picture Experts Group) 方式のように、 デ ジタル通信に適した方式 · 形式に変換するデータ変換を行うブロックで ¾>る。
なお、 出力変換部 1 8は、 カメラ 1 a, 1 bから送信された画像デー タを、 外部の表示手段に応じた方式 · 形式に変換するデータ変換を行う こともできる。 例えば、 出力変換部 1 8は、 カメラ l a, l bから送信 された画像データを、 テレビ入力に適した NT S C方式に変換したり、 コンピュータモニタ入力に適した RG B方式に変換したりすることもで きる。 特に、 R G B方式は色分離特性がよいので、 高画質表示に適して いる。
通信部 1 9は、 外部装置との間で通信を行うための通信ィンタフエー スであり、 例えばモデムやターミナルアダプタなどによって構成される 。 通信部 1 9は、 出力変換部 1 8で変換された画像データを、 通信ネッ トワーク 5を介してセンタ 6 (図 2参照) に適時送信する他、 センタ 6 からの各種データ受信も行う。
動作制限条件設定部 2 0は、 あらかじめ、 カメ ラ l a , l bがそれぞ れ位置すべき領域を規定領域として条件設定し、 その内容を格納するブ ロックである。 規定領域の設定例と しては、 「 A地点から半径 R (m) 以内」 という条件や 「緯度が X 1〜 X 2かつ経度が Y 1〜 Y 2」 という 条件などが挙げられる。
なお、 動作制御部 1 7、 出力変換部 1 8、 動作制限条件設定部 2 0な どのプロックは、 適宜のソフ トウヱァを実行演算する C P Uやその周辺 回路によつて実現することができる。 これら構成は、 カメラ 1 a , l b および通信部 1 9 と一体となって、 入力された光を変換処理して撮影画 像データを得るものである。
以上、 複数のカメラ l a , :! ヒ… (撮像側装置) , 撮影通信ネッ トヮ ーク 2 (無線通信) , コントローラ 3 (制御側装置) からなるネッ ト力 メラ 4の構成について説明した。 このよ うな構成によれば、 簡単な構成 であって低コス トのカメラ l a , l b…を数多く設置し、 これらをコン トローラ 3がー括管理することができるので、 よ り少ないコス トで数多 くの領域撮像を行う ことが可能になる。
なお、 図 2の説明にて前述したように、 ネッ トカメ ラ 4のかわり に、 単一のカメラ 1 1 , 撮影通信ネッ トワーク (NW) 2, , コントローラ 3 ' を、 センタ 6 と接続する構成を採用するこ ともできる。
また、 カメラは、 カメラ l a , l b…およびコントローラ 3が備える 構成を筐体に一体格納した形態を採用することができる。 例えば図 1 に 示す場合では、 カメラ 1 1は、 CMO Sィメージセンサ 1 2、 A G C 1 3、 シンクジェネレータ 1 4、 タイ ミングジェネレータ 1 5、 A/D変 換部 1 6、 動作制御部 1 7、 出力変換部 1 8、 通信部 1 9、 動作制限条 件設定部 2 0、 G P SZL P S部 2 1、 非接触 I D— C h i p読みと り 部 2 2を備えた構成となっている。 カメラ 1 1の各構成の詳細について は、 新たに部材番号を付与した構成を含めて、 前述のカメラ 1 a , l b …およびコン トローラ 3 と同一であるので、 ここでは再度の説明を割愛 する。
上述の力メラ 1 1は、 カメ ラ l a , l b…およびコントローラ 3の有 する機能を全て実現するので、 撮影通信ネッ トワーク 2 ' (前述の撮影 通信ネッ トワーク 2 と同様、 有線 · 無線の L ANなどであってもよいし 、 単一の信号線などであってもよい) を介して接続されるコン トローラ 3 ' は、 カメラ 1 1から送信された画像データをセンタ 6に転送する機 能を有するものであるが、 コン トローラ 3 ' を省略してカメラ 1 1が直 接センタ 6 と通信する形態を採用することもできる。
[ 4. システムの動作フロー]
次に、 図 4乃至 6を用いて、 本画像モニタシステムの動作フローにつ いて説明する。
図 4は、 ネッ トカメラ 4およびカメ ラ 1 1 (以降、 カメラと総称する ) が自ら自位置を検出する場合の動作フロー例を示すフローチヤ一卜で ある。 本動作フ ロ ー例では、 携帯電話機, P D A ( Personal Digital Assistants) (以下、 携帯端末等と総称する) からカメラの各種設定登 録ゃ撮影 (撮像) 起動要求を行う こ とができるものと している。 また、 本画像モニタシステムを警備システムとして利用する場合には、 窓に取 り付けられた振動センサなどがカメラに撮影起動要求を行う こともある 本動作フロー例では、 前記設定登録やカメ ラ との通信に、 携帯端末等 の有する WE B (ブラウジング) 機能を用いるものとする。 さらに、 力 メラの動作制御部 1 7 (正規利用者識別情報格納部, 利用者判定部) は 利用者から前述の I D情報やパスワード (PASSWORD) を取得することに よ り、 正規の利用者を識別するものとする。
以下、 カメラ側の動作フローを順に説明する。
まず、 携帯端末等からの接続が行われると (ステップ 4 1、 以降 S 4 1のよ うに称する) 、 カメラ側では、 利用者 (カメラ管理者) から I D 情報やパスワードを取得して、 正規の利用者であるか否かを認証 (判定 ) する。 このとき、 前記 I D情報やパスワー ドは、 前記携帯端末等から 取得してもよいし、 カメ ラに適宜設けられるテンキーなどを通じて取得 してもよい。 前記認証の結果、 正規の利用者である (OK) と判定され れば、 次のステップ ( S 4 3 a ) に進む一方、 正規の利用者ではない ( N G) と判定されれば、 カメ ラに対する動作制限条件の設定を拒否して 処理を終了する ( S 4 3 b ) 。
次に、 携帯端末等から送信される動作制限条件をカメラ (動作制限条 件-^定部 2 0 ) に設定登録する ( S 4 3 a ) 。 このステップでは、 認証 許可さ ¾pた携帯端末等 (撮影起動要求元) を特定する撮影起動要求元 ί D (例えば発信元電話番号) を登録しておく。 これによ り、 利用者が撮 影起動要求のたびに、 I D情報やパスワードを入力送信せずとも、 特定 の携帯端末等からの指示は、 常に正規の利用者からのものであるとみな すことができる。
その後、 カメラは撮影待機状態となり (S 4 4 ) 、 各種センサや携帯 端末等から撮影起動要求があれば、 これを受信する ( S 4 5 ) 。 各種セ ンサゃ携帯端末等は撮影起動要求と共に前記撮影起動要求元 I Dをカメ ラに送信する。 カメラは、 受信した撮影起動要求元 I Dが、 S 4 3 aに て事前登録したものに一致するか否かを照合チェックする ( S 4 6 ) 。 照合の結果、 両者が一致しなければ、 カメラ (動作制御部 1 7 ) は、 前 述の現在位置に応じた判定、 これに基づく撮影動作の制限を行い、 撮影 を不動作とする ( S 4 7 a ) 。
前記照合の結果、 受信した撮影起動要求元 I Dが、 S 4 3 aにて事前 登録したものに一致すれば、 カメラは、 前記撮影起動要求を正規の利用 者による強制指示と解釈して撮影動作を開始し ( S 4 7 b ) 、 撮影画像 をセンタ 6 (図 2参照) に送出する ( S 4 8 ) 。 これにより、 センタ 6 や監視センタ 7 (以下、 センタ等と総称する) にて撮影映像の受信によ る画像監視が行われる。
図 5は、 カメラが自位置を検出する際に、 外部のポジショニングシス テム (例えば G P SZL P S部 2 1 a, 2 1 bが現在位置を算出する際 に必要な演算の一部を捕助する情報処理システムなど) に問い合わせ ( 位置情報の算出要求) を行う場合の動作フロー例を示すフローチヤ一ト である。
図 5における S 5 1〜S 5 5の各ステップにおけるカメラの処理動作 は、 前述の S 4 1〜S 4 5 と同一であるカ 、 本動作フロー例では、 カメ ラは撮影起動要求の受信 (S 5 5 ) の後、 外部のポジショニングシステ ム (前述の携帯端末等には限られない) に位置情報を要求する ( S 5 6 ) 。 この要求に応じて前記ポジショ ニングシステムから位置情報の提供 を受けたカメラ (動作制御部 1 7 ) は、 現在位置 (自位置) が規定領域 (登録場所) の内部であるか外部であるかを判定 (チェック) する ( S 5 7 ) 。 この判定の結果、 現在位置が規定領域の外部である (登録場所 と不一致) 場合には、 カメラ (動作制御部 1 7 ) は撮影動作の制限を行 い、 撮影を不動作とする ( S 5 8 a ) 。
前記判定の結果、 現在位置が規定領域の内部である (登録場所と一致
) 場合には、 カメラは、 前記撮影起動要求に応じて撮影動作を開始し ( S 5 8 b ) 、 撮影画像をセンタ 6や携帯端末等に送出する (S 5 9 ) 。 これにより、 センタ等、 携帯端末等にて撮影映像の受信による画像監視 が行われる。
図 6は、 カメ ラが自位置の検出に、 (i) 非接触 I D— C h i p利用 方式 (非接触 I D— C h i p読みと り部 2 2 a , 2 2 bによる位置検出 ) と (ii) 電界強度測定利用方式とをそれぞれ利用する場合の動作フロ 一例を示すフローチヤ一トである。
(i) 非接触 I D— C h i p利用方式
まず、 例えば壁に埋め込み設置された I D— C h i pから I D情報が 送信されると ( S 6 1 a ) 、 カメ ラ側では定期的に前記送信情報の読み 出しチェックを行う (S 6 2 a ) 。 その後、 カメ ラは、 読み出した I D 情報を確認することによって自位置を確認し (S 6 3 a ) 、 その確認内 容に応じて動作制限条件を設定する。 つまり、 S 6 3 aにて I D情報が 確認できなければ (確認 NG時) 、 カメラは自位置が規定領域外である ものと判定し、 その旨 (撮影動作の制限が必要) を制限実施状態と して (動作制限条件設定部 2 0に) 登録する ( S 6 4 ) 。 一方、 S 6 3 a に て I D情報が確認できれば (確認 OK時) 、 カメラは自位置が規定領域 内であるものと判定し、 その旨 (撮影動作の制限は不要) を制限不実施 状態と して (動作制限条件設定部 2 0に) 登録する ( S 6 5 ) 。
(ii) 電界強度測定利用方式
電界強度測定利用方式とは、 0 3ズ1^卩 3部 2 1 & , 2 l bや非接 触 I D— C h i p読みと り部 2 2 a , 2 2 bなど特別の自位置検出部を 用いず、 カメラとコン トローラ 3およびコントローラ 3 ' (以降、 コン トローラと総称する) との間で無線通信を行う場合、 その電波強度を検 出することにより、 両者間の距離変化を検出する方式をいう。 この方式 を採用する場合には、 前記規定領域をカメラとコントローラとの距離に よって定義づけておき、 両者間の距離が所定値以上となった場合に、 力 メラは自位置が規定領域の外部であると判定する。 例えば、 図 2におい ては、 カメラ l a , l b とコン トローラ 3 との間 (撮影通信ネッ トヮ一 ク 2 ) の無線電波強度や、 カメラ 1 1 とコントローラ 3 ' との間 (撮影 通信ネッ トワーク 2 ' ) の無線電波強度を測定することによ り、 本方式 を実現することができる。 具体的手順は次の通りである。
まず、 コン トローラは、 カメラとの無線通信における電界強度を測定 し、 その測定結果をカメラに送信する (S 6 1 b ) 。 カメラ側では電波 を定期的に発信することによってコントローラと交信し、 前記測定結果 を受信する ( S 6 2 b ) 。 その後、 カメ ラは、 受信した測定結果を確認 (上記受信強度を所定値と比較すること) することによって自位置を確 認し (S 6 3 b ) 、 その確認内容に応じて動作制限条件を設定する。 すなわち、 S 6 3 bにて測定結果が確認できなければ (電界強度は所 定値未満 : 確認 NG時) 、 カメラは自位置が規定領域外であるものと判 定し、 その旨 (撮影動作の制限が必要) を制限実施状態と して (動作制 限条件設定部 2 0に) 登録する ( S 6 4 ) 。 一方、 S 6 3 bにて測定結 果が確認できれば (電界強度は所定値以上 : 確認〇 K時) 、 カメラは自 位置が規定領域内であるものと判定し、 その旨 (撮影動作の制限は不要 ) を制限不実施状態と して (動作制限条件設定部 2 0に) 登録する ( S 6 5 ) 0
以下、 S 6 6以降のステップについては (i) 非接触 I D— C h i p 利用方式 (ii) 電界強度測定利用方式のいずれも同一である。 カメ ラは 撮影待機状態となり ( S 6 6 ) 、 各種センサや携帯端末等から撮影起動 要求があれば、 これを受信する ( S 6 7 ) 。 その後、 カメラはカメ ラメ モリ (動作制限条件設定部 2 0 ) から、 S 6 4〜 S 6 5で登録された前 記動作制限条件を読み出して (S 6 8 ) 、 その内容をチェック (確認) する (S 6 9 ) 。 前記チェックの結果、 撮影の制限実施状態が登録され 'ていれば、 カメラ (動作制御部 1 7 ) は、 撮影動作の制限を行い、 撮影 を不動作とする ( S 7 0 a ) 。
前記チェックの結果、 撮影の制限不実施状態が登録されていれば、 力 メラは、 撮影動作を開始し ( S 7 0 b ) 、 撮影画像をセンタ 6 (図 2参 照) に送出する (S 7 1 ) 。 これによ り、 センタ等にて撮影映像の受信 による画像監視が行われる。
以上、 図 4乃至 6を用いて、 本画像モニタシステムの動作フローにつ いて説明した。 本画像モニタシステムによれば、 G P S/L P S部 2 1 a , 2 1 bや非接触 I D— C h i p読みと り部 2 2 a > 2 2 bによって 、 カメ ラの現在位置が検出され、 動作制御部 1 7によって、 前記検出結 果である自位置は規定領域の内部であるか外部であるか判定され、 さら に自位置が規定領域の外部であると判定されれば、 カメラの撮像動作が 制限される。 したがって、 カメ ラが規定領域の外部に移動されたときに は、 力メラの撮像部はその撮像動作を制限される。
これにより、 カメラが本来位置すべき領域の外部に移動された場合に は撮像が不能になるので、 利用者 (管理者) が予期しないシーンが撮影 されるなどの、 盗撮やプライバシ一を侵害するよ うな不正撮影に用いら れることを防止することができる。 また、 カメラを盗難等しても使用不 能となるので、 盗難や不正使用の対象となるリ スク自体を低減すること ができる。
また、 前記動作フローに基づいて、 本発明を撮像装置の制御方法とし て表現すると、 自位置を検出する自位置検出段階と、 前記自位置検出段 階において検出した自位置は規定領域の内部であるか外部であるかを判 定する領域判定段階と、 前記領域判定段階が、 自位置は前記規定領域の 外部であると判定した場合、 撮像装置において入力された光を変換処理 して撮影画像データを得る撮像部の撮像動作を制限する撮像動作制限段 階とを備えるものと してあらわせる。
なお、 ネッ トカメラ 4およびカメラ 1 1は、 一般的なコンピュータと 同様の構成、 すなわち、 各種データを処理する処理装置 (C P U ) と、 各種データを記憶する記憶装置と、 各種データを他の端末と通信する通 信装置とを備える構成とすることもできる。 この場合、 ネッ トカメ ラ 4 およびカメ ラ 1 1 における各種の機能おょぴ動作は、 記憶装置に記憶さ れたプログラムが処理装置にて実行されることによ り行なわれることが できる。
各種プログラムは、 例えば C D— R O Mなどのリムーバブルメディア に記録されているものを読み出して使用する形態であってもよいし、 ハ ー ドディスクなどにイ ンス トールされたものを読み出して使用する形態 であってもよい。 また、 インターネッ トなどの通信ネッ トワークを介し て前記プログラムをダウンロードしてハードディスクなどにイ ンス ト一 ルして実行する形態なども考えられる。
なお、 本発明の適用対象となる撮像装置の形態は、 撮像専用の光学力 メ ラに限定されるものではなく、 携帯電話機とデジタルカメラとの複合 機など種々の形態を採用することができる。
以上のよ うに、 本発明に係る撮像装置は、 入力された光を変換処理し て撮影画像データを得る撮像部と、 自位置を検出する自位置検出部と、 前記自位置検出部が検出した自位置は規定領域の内部であるか外部であ るかを判定する領域判定部と、 前記領域判定部が、 自位置は前記規定領 域の外部であると判定した場合、 前記撮像部の撮像動作を制限する撮像 動作制限部とを備えるものである。
それゆえ、 撮像装置が規定領域の外部に移動されたときには、 撮像装 置の撮像部はその撮像動作を制限される。
これによ り、 撮像装置が本来位置すべき領域の外部に移動された場合 には撮像が不能になるので、 利用者 (管理者) が予期しないシーンが撮 影されるなどの、 盗撮やプライバシーを侵害するような不正撮影に用い られることを防止することができるという効果を奏する。 また、 本発明 に係る撮像装置によれば、 撮像装置を盗難等しても使用できないことに なるので、 盗難や不正使用の対象となるリスク 自体を低減することがで きるという効果を併せて奏する。
さらに、 本発明に係る撮像装置は、 以上のよ うに、 上記の構成におい て、 前記自位置検出部は、 受信波状態に基づいて自位置を検出する構成 である。
上記の構成によれば、 前記自位置検出部が、 電波, 超音波, 赤外線な ど種々の波動を受信し、 その受信状態、 例えば強度, 波形, 周波数, 干 渉状態などに基づいて撮像装置の自位置が検出される。
これによ り、 上記の作用効果に加えて、 撮像装置は、 波動を受信でき るところであればどこでも自位置を検出し、 撮像装置が本来位置すべき 領域の外部に移動された場合には撮像を制限できるという効果を奏する さ らに、 本発明に係る撮像装置は、 以上のよ うに、 上記の構成におい て、 前記自位置検出部は、 複数の異なる受信波状態に基づいて自位置を 検出する構成である。
上記の構成によれば、 撮像装置は、 周波数や波形の異なる 2種類以上 の受信波状態に基づいて自位置を検出することができるので、 三角測量 の原理や受信波の干歩状態などに基づいて高精度な位置検出を行う こと が可能になる。 代表例と して G P Sを挙げることができる。
これにより、 上記の作用効果に加えて、 自位置をよ り高精度に検出し
、 的確な撮像制限を実現できるという効果を奏する。
さらに、 本発明に係る撮像装置は、 以上のよ うに、 上記の構成におい て、 正規の利用者識別情報を格納しておく正規利用者識別情報格納部と 、 利用者から取得した利用者識別情報が、 前記正規の利用者識別情報と 一致するか否かを判定する利用者判定部とを備え、 前記撮像動作制限部 は、 前記利用者判定部が、 利用者から取得した前記利用者識別情報と前 記正規の利用者識別情報とは一致すると判定した場合は常に、 前記撮像 部の撮像動作を制限しない構成である。
上記の構成において、 利用者識別情報とは、 利用者を識別するための 固有情報一般をいう。 利用者識別情報の例と しては、 文字, 数字, 記号 などの組み合わせから構成されるパスヮー ドゃ、 指紋や声紋を含む生体 情報などを採用することができる。
上記の構成によれば、 あらかじめ正規の利用者識別情報が正規利用者 識別情報格納部に格納されており、 利用者から取得された利用者識別情 報と照合される。 前記利用者判定部'による照合の結果、 両者が一致する と判定された場合、 つまり利用者が正規の利用者識別情報を付与した場 合には、 前記撮像動作制限部は、 撮像装置の現在位置 (自位置) にかか わらず、 常に、 前記撮像部の撮像動作を制限しない。
これによ り、 上記の作用効果に加えて、 正規の利用者は撮像装置を移 動した場合であっても撮像動作を妨げられることなく 、 常に撮像を行う ことができる という効果を奏する。
さらに、 本発明に係る撮像装置は、 以上のように、 上記の構成におい て、 前記撮像部および前記自位置検出部を備えた撮像側装置と、 前記領 域判定部おょぴ前記撮像動作制限部を備えた制御側装置とを、 それぞれ 別の装置と して構成し、 前記撮像側装置と前記制御側装置とを、 無線通 信を介して接続した構成である。
上記の構成によれば、 上記の作用効果に加えて、 簡単な構成であって 低コス トの撮像側装置を数多く設置し、 これらを制御側装置が一括管理 することができるので、 よ り少ないコス トで数多くの領域撮像を行う こ とが可能になるという効果を奏する。
また、 本発明に係る撮像システムは、 以上のように、 上記構成の撮像 装置と、 前記撮像装置から送信された撮影画像情報を受信するサーバコ ンピュータとからなるものである。
これにより、 上記の作用効果に加えて、 撮像装置による撮影画像情報 を遠隔のサーバコンピュータにおいて利用できるという効果を奏する。 また、 本発明に係る撮像装置の制御方法は、 以上のように、 自位置を 検出する自位置検出段階と、 前記自位置検出段階において検出した自位 置は規定領域の内部であるか外部であるかを判定する領域判定段階と、 前記領域判定段階が、 自位置は前記規定領域の外部であると判定した場 合、 撮像装置において入力された光を変換処理して撮影画像データを得 る撮像部の撮像動作を制限する撮像動作制限段階とを備える方法である それゆえ、 撮像装置が規定領域の外部に移動されたときには、 撮像装 置の撮像部はその撮像動作を制限される。
これにより、 撮像装置が本来位置すべき領域の外部に移動された場合 には撮像が不能になるので、 撮像装置が盗難された場合などに、 盗撮や プライバシーを侵害するよ うな不正撮影に用いられることを防止するこ とができるという効果を奏する。 また、 本発明に係る撮像装置の制御方 法によれば、 撮像装置を盗難等しても使用できないことになるので、 盗 難や不正使用の対象となるリスク自体を低減することができるという効 果を併せて奏する。
さ らに、 本発明に係る撮像装置の制御方法は、 以上のよ うに、 上記の 方法において、 前記自位置検出段階は、 受信波状態に基づいて自位置を 検出する方法である。
上記の方法によれば、 自位置検出段階によって、 電波, 超音波, 赤外 線など種々の波動が受信され、 その受信状態、 例えば強度, 波形, 周波 数, 干渉状態などに基づいて撮像装置の自位置が検出される。
これによ り、 上記の作用効果に加えて、 撮像装置は、 波動を受信でき るところであればどこでも自位置を検出し、 撮像装置が本来位置すべき 領域の外部に移動された場合には撮像を制限できるという効果を奏する さ らに、 本発明に係る撮像装置の制御方法は、 以上のよ うに、 上記の 方法において、 前記自位置検出段階は、 複数の異なる受信波状態に基づ いて自位置を検出する方法である。
上記の方法によれば、 撮像装置は、 周波数や波形の異なる 2種類以上 の受信波状態に基づいて自位置を検出することができるので、 三角測量 の原理や受信波の干渉状態などに基づいて高精度な位置検出を行う こと が可能になる。
これにより、 上記の作用効果に加えて、 自位置をより高精度に検出し 、 的確な撮像制限を実現できるという効果を奏する。
さ らに、 本発明に係る撮像装置の制御方法は、 以上のように、 上記の 方法において、 正規の利用者識別情報を格納しておく正規利用者識別情 報格納段階と、 利用者から取得した利用者識別情報が、 前記正規の利用 者識別情報と一致するか否かを判定する利用者判定段階とを備え、 前記 撮像動作制限段階は、 前記利用者判定段階が、 利用者から取得した前記 利用者識別情報と前記正規の利用者識別情報とは一致すると判定した場 合は常に、 前記撮像部の撮像動作を制限しない方法である。
上記の方法によれば、 正規利用者識別情報格納段階によってあらかじ め格納された正規の利用者識別情報と、 利用者から取得された利用者識 別情報との照合が利用者判定段階によつて行われる。 この照合の結果、 両者が一致すると判定された場合、 つまり利用者が正規の利用者識別情 報を付与した場合には、 撮像動作制限段階により、 撮像装置の現在位置 (自位置) にかかわらず、 常に、 前記撮像部の撮像動作を制限しないよ うに撮像装置が制御される。
これによ り、 上記の作用効果に加えて、 正規の利用者は撮像装置を移 動した場合であっても撮像動作を妨げられることなく 、 常に撮像を行う ことができるという効果を奏する。
また、 本発明に係る撮像装置の制御プログラムは、 コンピュータを前 記撮像装置の各部と して機能させるためのコンピュータプログラムであ る。
これによ り、 前記撮像装置を実現できるという効果を奏する。
また、 本発明に係る撮像装置の制御プログラムを記録したコンビユ ー タ読取り可能な記録媒体は、 コンピュータを前記撮像装置の各部と して 機能させるための制御プログラムを記録したコンピュータ読取り可能な 記録媒体である。
これによ り、 前記記録媒体から読み出された撮像装置の制御プログラ ムによって、 前記撮像装置をコンピュータで実現できるという効果を奏 する。
なお、 発明を実施するための最良の形態の項においてなした具体的な 実施態様または実施例は、 あくまでも、 本発明の技術内容を明らかにす るものであって、 そのよ うな具体例にのみ限定して狭義に解釈されるベ きものではなく、 本発明の精神と次に記載する特許請求の範囲内で、 様 々に変更して実施することができる。 産業上の利用の可能性
本発明によ り、 撮像装置が本来位置すべき領域の外部に移動された場 合には撮像が不能になるので、 盗撮やプライパシーを侵害するような不 正撮影に用いられることを防止でき、 併せて、 撮像装置を盗難等しても 使用できないことになるので、 盗難や不正使用の対象となるリ スク自体 を低減できる撮像装置、 撮像システム、 撮像装置の制御方法及び制御プ 口グラム、 並びに該プログラムを記録した記録媒体が提供される。
これによ り、 撮像装置の盗難等による不正使用の防止を実現すること ができる。

Claims

請 求 の 範 囲
1 . 入力された光を変換処理して撮影画像データを得る撮像部と、 自位置を検出する自位置検出部と、
前記自位置検出部が検出した自位置は規定領域の内部であるか外部で あるかを判定する領域判定部と、
前記領域判定部が、 自位置は前記規定領域の外部であると判定した場 合、 前記撮像部の撮像動作を制限する撮像動作制限部とを備えることを 特徴とする撮像装置。
2 . 前記自位置検出部は、 受信波状態に基づいて自位置を検出するこ とを特徴とする請求項 1に記載の撮像装置。
3 . 前記自位置検出部は、 複数の異なる受信波状態に基づいて自位置 を検出することを特徴とする請求項 2に記載の撮像装置。
4 . 正規の利用者識別情報を格納しておく正規利用者識別情報格納部 と、
利用者から取得した利用者識別情報が、 前記正規の利用者識別情報と 一致するか否かを判定する利用者判定部とを備え、
前記撮像動作制限部は、 前記利用者判定部が、 利用者から取得した前 記利用者識別情報と前記正規の利用者識別情報とは一致すると判定した 場合は常に、 前記撮像部の撮像動作を制限しないことを特徴とする請求 項 1乃至 3のいずれか 1項に記載の撮像装置。 '
5 . 前記撮像部および前記自位置検出部を備えた撮像側装置と、 前記 領域判定部および前記撮像動作制限部を備えた制御側装置とを、 それぞ れ別の装置と して構成し、 前記撮像側装置と前記制御側装置とを、 無線 通信を介して接続したことを特徴とする請求項 1乃至 4のいずれか 1項 に記載の撮像装置。
6 . 請求項 1乃至 5のいずれか 1項に記載の撮像装置と、
前記撮像装置から送信された撮影画像情報を受信するサーバコンピュ ータとからなることを特徴とする撮像システム。
7 . 自位置を検出する自位置検出段階と、
前記自位置検出段階において検出した自位置は規定領域の内部である か外部であるかを判定する領域判定段階と、
前記領域判定段階が、 自位置は前記規定領域の外部であると判定した 場合、 撮像装置において入力された光を変換処理して撮影画像データを 得る撮像部の撮像動作を制限する撮像動作制限段階とを備えることを特 徵とする撮像装置の制御方法。
8 . 前記自位置検出段階は、 受信波状態に基づいて自位置を検出する ことを特徴とする請求項 7に記載の撮像装置の制御方法。
9 . 前記自位置検出段階は、 複数の異なる受信波状態に基づいて自位 置を検出することを特徴とする請求項 8に記載の撮像装置の制御方法。
1 0 . 正規の利用者識別情報を格納しておく正規利用者識別情報格納 段階と、
利用者から取得した利用者識別情報が、 前記正規の利用者識別情報と 一致するか否かを判定する利用者判定段階とを備え、
前記撮像動作制限段階は、 前記利用者判定段階が、 利用者から取得し た前記利用者識別情報と前記正規の利用者識別情報とは一致すると判定 した場合は常に、 前記撮像部の撮像動作を制限しないことを特徴とする 請求項 7乃至 9のいずれか 1項に記載の撮像装置の制御方法。
1 1 . 請求項 1乃至 5のいずれか 1項に記載の撮像装置を動作させる 制御プログラムであって、 コンピュータを前記の各部と して機能させる ための撮像装置の制御プログラム。
1 2 . 請求項 1 1に記載の撮像装置の制御プログラムを記録したコン ピュータ読取り可能な記録媒体。
PCT/JP2003/005307 2002-04-30 2003-04-24 Appareil d'imagerie, systeme d'imagerie, procede de commande d'un appareil d'imagerie et programme de commande, support d'enregistrement dans lequel ledit programme a ete enregistre WO2003094515A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/510,951 US20050231357A1 (en) 2002-04-30 2003-04-24 Imaging apparatus, imaging system, imaging apparatus control method and control program, and recording medium in which the same program has been recorded
EP03725667A EP1501306A4 (en) 2002-04-30 2003-04-24 IMAGING APPARATUS, IMAGING SYSTEM, METHOD FOR CONTROLLING IMAGING APPARATUS AND CONTROL PROGRAM, RECORDING MEDIUM IN WHICH PROGRAM HAS BEEN RECORDED
AU2003231497A AU2003231497A1 (en) 2002-04-30 2003-04-24 Imaging apparatus, imaging system, imaging apparatus control method and control program, and recording medium in which the same program has been recorded

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-128799 2002-04-30
JP2002128799A JP3733924B2 (ja) 2002-04-30 2002-04-30 撮像装置、撮像システム、撮像装置の制御方法

Publications (1)

Publication Number Publication Date
WO2003094515A1 true WO2003094515A1 (fr) 2003-11-13

Family

ID=29397282

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/005307 WO2003094515A1 (fr) 2002-04-30 2003-04-24 Appareil d'imagerie, systeme d'imagerie, procede de commande d'un appareil d'imagerie et programme de commande, support d'enregistrement dans lequel ledit programme a ete enregistre

Country Status (5)

Country Link
US (1) US20050231357A1 (ja)
EP (1) EP1501306A4 (ja)
JP (1) JP3733924B2 (ja)
AU (1) AU2003231497A1 (ja)
WO (1) WO2003094515A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4759924B2 (ja) * 2004-03-15 2011-08-31 セイコーエプソン株式会社 情報機器ユニット、及び撮影データ伝送方法
ATE388456T1 (de) * 2004-05-06 2008-03-15 Arboprofit Vorrichtung für diebstahlsicherung mittels positionsbestimmung
US20060140475A1 (en) * 2004-12-15 2006-06-29 Chin Frances M Network support for corrupting images captured at a prohibited location
US20060128398A1 (en) * 2004-12-15 2006-06-15 Chin Frances M Network support for image blocking based on location stamp
JP4714473B2 (ja) * 2005-02-07 2011-06-29 Hoya株式会社 ユーザ認識機能を有するデジタルカメラ
EP2050544B1 (en) * 2005-09-30 2011-08-31 iRobot Corporation Robot system with wireless communication by TCP/IP transmissions
JP2007110586A (ja) * 2005-10-17 2007-04-26 Nec Corp 映像配信システム、映像配信サーバ、映像配信方法、映像配信プログラム
JP4724523B2 (ja) * 2005-10-17 2011-07-13 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、プログラム
JP5290991B2 (ja) * 2006-12-19 2013-09-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自律装置を制御する方法
CN101448080B (zh) * 2007-11-27 2012-03-28 鸿富锦精密工业(深圳)有限公司 成像装置及影像显示方法
US8264529B2 (en) * 2009-02-25 2012-09-11 T-Mobile Usa, Inc. Camera pod that captures images or video when triggered by a mobile device
EP2807848B1 (en) * 2012-01-25 2018-05-16 Aselsan Elektronik Sanayi ve Ticaret Anonim Sirketi A system and a method for detecting lost camera usage
WO2015008118A1 (en) * 2013-07-18 2015-01-22 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Server dependent ip camera system
JP2016208475A (ja) * 2015-04-28 2016-12-08 河村電器産業株式会社 監視カメラシステム
CN108885436B (zh) 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人系统
US10789386B2 (en) * 2016-11-09 2020-09-29 Reavire, Inc. Dispatching identity information from secure hardware appliance
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
US11227007B2 (en) * 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image
US11609868B1 (en) * 2020-12-31 2023-03-21 Waymo Llc Control calibration timing to avoid memory write blackout period

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285585A (ja) * 1997-04-10 1998-10-23 Matsushita Electric Ind Co Ltd 監視カメラおよび監視カメラシステム
JPH11136660A (ja) * 1997-10-29 1999-05-21 Kyocera Corp コードレス監視カメラシステム
JP2001016497A (ja) * 1999-06-28 2001-01-19 Olympus Optical Co Ltd 電子カメラ

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4037548B2 (ja) * 1998-11-24 2008-01-23 富士フイルム株式会社 盗難防止装置
JP3954237B2 (ja) * 1999-04-16 2007-08-08 セコム株式会社 監視カメラシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10285585A (ja) * 1997-04-10 1998-10-23 Matsushita Electric Ind Co Ltd 監視カメラおよび監視カメラシステム
JPH11136660A (ja) * 1997-10-29 1999-05-21 Kyocera Corp コードレス監視カメラシステム
JP2001016497A (ja) * 1999-06-28 2001-01-19 Olympus Optical Co Ltd 電子カメラ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1501306A4 *

Also Published As

Publication number Publication date
AU2003231497A1 (en) 2003-11-17
US20050231357A1 (en) 2005-10-20
EP1501306A4 (en) 2005-10-19
JP2003324715A (ja) 2003-11-14
JP3733924B2 (ja) 2006-01-11
EP1501306A1 (en) 2005-01-26

Similar Documents

Publication Publication Date Title
WO2003094515A1 (fr) Appareil d'imagerie, systeme d'imagerie, procede de commande d'un appareil d'imagerie et programme de commande, support d'enregistrement dans lequel ledit programme a ete enregistre
US11172165B2 (en) Method and system for monitoring a location
KR100968137B1 (ko) 시큐리티 시스템 및 방법
KR101852599B1 (ko) 모바일 장치를 이용한 출입통제 시스템 및 방법
KR101946317B1 (ko) Cctv 시스템을 이용한 유저 식별 및 추적방법
US20030067543A1 (en) Camera server system
KR101261293B1 (ko) 스마트폰을 이용한 영상보안장치 제어 시스템
US10542200B2 (en) Surveillance camera system
US9838875B2 (en) Mobile terminal device, information management device, and information management system
US7787862B2 (en) Method for video monitoring objects by means of a mobile communications systems
KR20020040926A (ko) 모바일 아이피에 의한 영상데이터 전송장치
JP2007201876A (ja) カメラ装置及びネットワークカメラ
JP2019193095A (ja) インターホンシステム
KR20200000297A (ko) 영상 감시시스템및 드론을 이용한 영상감시방법
JP2010212787A (ja) ドアホン装置、ドアホン装置における各手段として機能させるためのプログラム、ドアホンシステム及びドアホン装置の情報処理方法
JP2006236119A (ja) 情報端末、認証装置及び認証システム
KR100708884B1 (ko) 촬영 경로 정보에 따라 네트워크 카메라 촬영 영상을사용자 단말기로 순차적으로 제공하는 장치 및 방법
JP6365944B2 (ja) 集合住宅インターホンシステム
KR100675780B1 (ko) 사생활 보호기능을 갖는 원격감시 시스템 및 방법
JP2009230687A (ja) セキュリティ装置及びセキュリティシステム
JP2003143457A (ja) 情報機器システム
KR102489134B1 (ko) 스마트 도어벨 출입관리시스템 및 이를 이용한 출입관리방법
JP2004104510A (ja) 監視システム
JP2006148252A (ja) 防犯カメラシステム、防犯カメラ画像蓄積装置
KR101413730B1 (ko) Sns 서버와 통신이 가능한 무인감시장치

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PH PL PT RO RU SC SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003725667

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10510951

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003725667

Country of ref document: EP