WO2015125441A1 - 画像伝送装置及び画像伝送システム - Google Patents

画像伝送装置及び画像伝送システム Download PDF

Info

Publication number
WO2015125441A1
WO2015125441A1 PCT/JP2015/000649 JP2015000649W WO2015125441A1 WO 2015125441 A1 WO2015125441 A1 WO 2015125441A1 JP 2015000649 W JP2015000649 W JP 2015000649W WO 2015125441 A1 WO2015125441 A1 WO 2015125441A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
transmission
image processing
processing unit
Prior art date
Application number
PCT/JP2015/000649
Other languages
English (en)
French (fr)
Inventor
山中 睦裕
大西 克則
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP15751692.3A priority Critical patent/EP3110143A1/en
Priority to JP2016503963A priority patent/JPWO2015125441A1/ja
Publication of WO2015125441A1 publication Critical patent/WO2015125441A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Definitions

  • the present invention relates to an image transmission apparatus configured to transmit an image captured by a camera via a transmission path, and an image transmission system including the image transmission apparatus.
  • Document 1 an image transmission / reception system, a camera device, and a host device of Japanese Patent Application Publication No. 2001-28740 (hereinafter referred to as “Document 1”) are illustrated.
  • a camera device (video camera) is alternatively connected to a host device (notebook personal computer) through two types of transmission lines, a wired transmission line and a wireless transmission line. Then, the host device identifies which transmission path is connected to the camera apparatus, and transmits control information corresponding to each transmission path (presence / absence of image encoding, compression rate, etc.) to the camera apparatus.
  • the camera device performs processing such as encoding an image and changing the compression rate in accordance with the control information received from the host device. Note that when the camera device is connected to a plurality of host devices via a wireless transmission path, the captured image can be individually transmitted to the plurality of host devices.
  • the camera device image transmission device
  • the camera device in the conventional example is installed at an arbitrary place (indoor or outdoor)
  • an unexpected situation may occur and the shooting state of the camera device may change.
  • the camera device is used for monitoring the intrusion of a suspicious person, it is assumed that the suspicious person moves it to change the imaging range, or it is covered with cloth or the like and the monitoring area cannot be imaged. Is done.
  • the present invention has been made in view of the above problems, and an object of the present invention is to suppress the waste of resources and reliably transmit a necessary image.
  • the image transmission device of the present invention includes an imaging device, an image processing device, a transmission device, a storage device, and a control device.
  • the imaging device is configured to capture an image.
  • the image processing device is configured to perform image processing of an image captured by the imaging device.
  • the transmission apparatus is configured to transmit an image obtained by the image processing to one or more image display apparatuses via a transmission path.
  • the storage device is configured to store a plurality of operating conditions of the image processing device.
  • the control device selects an operation condition corresponding to an image captured by the imaging device from the plurality of operation conditions stored in the storage device, and the image processing device is selected based on the selected operation condition. Configured to operate.
  • the image transmission apparatus and the image transmission system of the present invention have an effect of suppressing resource waste and transmitting a necessary image with certainty.
  • FIG. 1 is a system configuration diagram showing an embodiment of an image transmission apparatus according to the present invention and an embodiment of an image transmission system according to the present invention. It is a perspective view which shows an image transmission apparatus same as the above. It is a flowchart for demonstrating operation
  • the image transmission system of the present embodiment is configured by connecting an image transmission device 1 and one or a plurality of image display devices 2 via a transmission path 3 as shown in FIG.
  • the transmission path 3 may be a wired transmission path using a metal wire, an optical fiber, a coaxial cable, or the like as a transmission medium, or may be a wireless transmission path using a radio wave as a transmission medium.
  • the transmission path 3 may be a wired transmission path using a metal wire, an optical fiber, a coaxial cable, or the like as a transmission medium, or may be a wireless transmission path using a radio wave as a transmission medium.
  • the image transmission device 1 includes a control unit (control device) 10, an imaging unit (imaging device) 11, an image processing unit (image processing device) 12, a transmission unit (transmission device) 13, and a storage unit (storage device). 14.
  • the imaging unit 11 is configured to capture an image (a still image or a moving image).
  • the imaging unit 11 includes a solid-state imaging device, an optical component, a signal processing circuit, and the like.
  • a CCD (Charge-Coupled Devices) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like is employed as the solid-state imaging device.
  • the optical component includes a lens for condensing light on the solid-state image sensor, an iris (iris) for adjusting the amount of light received by the solid-state image sensor, and the like.
  • the signal processing circuit scans all the pixels (light receiving elements) of the solid-state imaging device, reads the pixel value (charge) of each pixel as an analog electric signal, and converts the electric signal into a digital signal (image data) Configured as follows.
  • the signal processing circuit is configured to generate image data at a predetermined frame rate (for example, 30 fps ⁇ frame ⁇ per second> or 60 fps).
  • a predetermined frame rate for example, 30 fps ⁇ frame ⁇ per second> or 60 fps.
  • the image processing unit 12 is configured to perform image processing of an image (captured image) captured by the imaging unit 11.
  • the image processing unit 12 includes, for example, a frame memory and a DSP (Digital Signal Processor).
  • the frame memory is also called a frame buffer, and is configured to store image data of one to a plurality of frames output from the imaging unit 11.
  • the DSP is configured to perform various image processes by executing a product-sum operation on image data read from the frame memory.
  • the image processing unit 12 may be configured by an MPU (Micro-Processing Unit) and image processing software executed by the MPU.
  • MPU Micro-Processing Unit
  • the image processing unit 12 performs image processing such as compression encoding processing that compresses and encodes image data using a predetermined compression encoding method, and human detection processing that analyzes image data and detects a moving object (person). Configured to do.
  • image processing such as compression encoding processing that compresses and encodes image data using a predetermined compression encoding method, and human detection processing that analyzes image data and detects a moving object (person). Configured to do.
  • the compression encoding method performed by the image processing unit 12 in the compression encoding process is preferably H.264 / MPEG-4CAVC for moving images and JPEG for still images, for example.
  • the image processing unit 12 is configured to obtain (detect) the degree to which the image output from the imaging unit 11 changes in time series, and to output the obtained (detected) degree to the control unit 10. The degree will be described later.
  • the transmission unit 13 is configured to transmit an image (processed image) obtained by image processing by the image processing unit 12 to one or a plurality of image display apparatuses 2 via the transmission path 3.
  • the transmission unit 13 is configured to divide the image data after being compressed and encoded by the image processing unit 12 into a number of packets corresponding to the size of the image data.
  • the transmission unit 13 digitally modulates the divided plurality of packets with a predetermined digital modulation method (BPSK method, QAM method, OFDM method, etc.), generates a transmission signal, and transmits the transmission signal via the transmission path 3. It is configured to transmit to the image display device 2.
  • BPSK method BPSK method, QAM method, OFDM method, etc.
  • the control unit 10 is composed of hardware including an MPU (Micro-Processing Unit) and a memory, and software including a program group stored in the memory and executed by the MPU. That is, the control part 10 is comprised so that various processes mentioned later may be performed by executing each program by MPU (computer).
  • MPU Micro-Processing Unit
  • the storage unit 14 is configured to store a plurality of operation conditions of the image processing unit 12.
  • the storage unit 14 includes a rewritable nonvolatile semiconductor memory such as a flash memory.
  • the operating conditions of the image processing unit 12 include at least the number of pixels of the image to be transmitted to the image display device 2, the number of frames, the frame interval, and the compression specification (compression method).
  • the image transmission device 1 is connected to a plurality of image display devices 2 via a transmission path 3.
  • the storage unit 14 includes a plurality of identification codes assigned to the plurality of image display devices 2 in order to individually identify the plurality of image display devices 2 (2A, 2B, 2C,. It is configured to store a data table representing the correspondence with a plurality of operation conditions for each display device 2.
  • one or more user IDs assigned to one or more users together with a plurality of identification codes for identifying the plurality of image display devices 2 or instead of the plurality of identification codes The storage unit 14 may store a data table representing the correspondence with a plurality of operation conditions for each user ID.
  • the user ID is preferably associated with a password.
  • the control unit 10 is preferably configured to authenticate each user by a plurality of pairs stored in the storage unit 14 each including a user ID and a password.
  • the image transmission apparatus 1 includes a housing 100 made of a rectangular parallelepiped synthetic resin molding as shown in FIG. 2, and the above-described control unit 10, imaging unit 11, and the like housed in the housing 100.
  • An image processing unit 12, a transmission unit 13, a storage unit 14, and the like are included.
  • a hemispherical lens cover 102 is rotatably provided on the front surface of the housing 100. Further, the lens cover 102 is fixed with the solid-state imaging device and the optical component (lens 101) of the imaging unit 11. That is, when the lens cover 102 is rotated by a driving mechanism (not shown), the posture (imaging range) of the solid-state imaging device and the lens 101 is changed.
  • the drive mechanism is configured to be controlled by the control unit 10.
  • the housing 100 is configured to be installed on a desk (not shown) or fixed to a wall, ceiling, or the like.
  • the image transmission apparatus 1 is generally called a network camera.
  • the image transmission apparatus 1 is installed in a residence, and an image obtained by capturing the inside of the residence is transmitted to the image display device 2 to monitor the inside of the residence. Used for.
  • the installation location of the image transmission device 1 according to the present embodiment is not limited to the inside of the house (indoor), and may be outside the house (the house side or outdoors).
  • the image display device 2 includes a control unit 20, a display unit (display device) 21, an image processing unit 22, a transmission unit (second transmission device) 23, and a storage unit 24. And an operation input unit (operation input device) 25.
  • the transmission unit 23 is configured to receive a transmission signal transmitted via the transmission path 3 and digitally demodulate the transmission signal by a predetermined digital demodulation method to acquire the packet (data).
  • the transmission unit 23 is configured to reconstruct original (one frame) image data from a plurality of received packets (data) and output the reconstructed image data to the image processing unit 22. Further, the transmission unit 23 is configured to transmit a transmission signal including data other than image data, for example, control data for giving an instruction to the image transmission apparatus 1 via the transmission path 3.
  • the image processing unit 22 includes, for example, a frame memory and a DSP.
  • the frame memory is configured to store image data output from the transmission unit 23.
  • the DSP is configured to perform various image processes by executing a product-sum operation on image data read from the frame memory. The image processing performed by the image processing unit 22 will be described later.
  • the display unit 21 includes, for example, a liquid crystal display and a driving circuit for the liquid crystal display.
  • the display unit 21 may include an organic EL display and a drive circuit for the organic EL display instead of the liquid crystal display.
  • the drive circuit receives image data from the image processing unit 22 via DVI (Digital Visual Interface) and drives the liquid crystal display to display images (moving images and still images) corresponding to the received image data. Configured to do.
  • DVI Digital Visual Interface
  • the operation input unit 25 is configured to receive an operation input by a person and output an electrical signal (operation signal) corresponding to the operation input to the control unit 20.
  • Such an operation input part 25 is comprised by input devices, such as a touch panel and a keyboard, for example.
  • the control unit 20 includes hardware including an MPU and a memory, and software including a group of programs stored in the memory and executed by the MPU. That is, the control unit 20 is configured to execute various processes to be described later by executing each program by the MPU.
  • the storage unit 24 is composed of a rewritable nonvolatile semiconductor memory such as a flash memory, and stores a unique identification code.
  • the image display device 2 includes a wired or wireless communication function and a device (such as a liquid crystal display) for displaying an image, such as a desktop or notebook personal computer, or a tablet terminal or a smartphone. If it is. However, when the image display device 2 is the personal computer, the tablet terminal, or the smartphone, the display unit 21 and the operation input unit 25 may be integrated as a touch panel (also referred to as a touch screen).
  • a touch panel also referred to as a touch screen
  • the control unit 20 when a predetermined operation input is received by the operation input unit 25, the control unit 20 generates a command (image request command) for requesting image transmission.
  • the transmission unit 23 generates a transmission signal including the image request command received from the control unit 20, and transmits the transmission signal to the image transmission apparatus 1 via the transmission path 3.
  • the transmission unit 13 receives the transmission signal and passes the image request command and the transmission source address demodulated from the transmission signal to the control unit 10.
  • the source address is a unique identification code (for example, IP address) assigned to the image display device 2 (for example, 2A), and is assigned to the plurality of image display devices 2 (2A, 2B, 2C,). A plurality of identification codes are assigned in advance.
  • control unit 10 When the control unit 10 receives the image request command and the transmission source address, the control unit 10 reads an operation condition corresponding to the transmission source address (identification code) from the data table of the storage unit 14. Then, the control unit 10 operates the image processing unit 12 under the read operating conditions.
  • the image processing unit 12 obtains (detects) the degree of change of the image in time series according to the procedure shown in the flowchart of FIG. That is, the image processing unit 12 acquires new image data from the imaging unit 11 (step S1), and then resets the counter to zero (step S2). Subsequently, the image processing unit 12 acquires the next new image data from the imaging unit 11 (step S3), and calculates an inter-frame difference between the previous image data and the current image data (step S4).
  • the image processing unit 12 determines whether or not the difference value of the interframe difference is within a predetermined range (step S5). Specifically, in the inter-frame difference, the image processing unit 12 determines whether or not each pixel difference value between the frames is equal to or greater than a threshold value, and sets a pixel area that is equal to or greater than the threshold value as a moving object area. Extract. Next, the image processing unit 12 determines whether or not the movement range (movement distance) of the extracted area of the moving object is within the predetermined range (below the predetermined distance). If the movement range is within the predetermined range (if the movement distance is equal to or less than the predetermined distance), the image processing unit 12 performs an edge (contour) extraction process on the current image data (step S6).
  • a predetermined range Specifically, in the inter-frame difference, the image processing unit 12 determines whether or not each pixel difference value between the frames is equal to or greater than a threshold value, and sets a pixel area that is equal to or greater than the threshold value as
  • the control unit 10 stores the result of the edge extraction processing (hereinafter referred to as “edge extraction result”) in the storage unit 14. As a result, the edge extraction result for the past image data is stored in the storage unit 14.
  • the image processing unit 12 adds 1 to the counter (step S7). Further, the image processing unit 12 compares the counter value with a predetermined value (step S8), and if the counter value is equal to or smaller than the predetermined value, the process returns to step S3. When the value of the counter becomes larger than the predetermined value, the image processing unit 12 turns on the image instability flag (first flag) stored in the storage unit 14 (step S9), and then proceeds to step S6. Then, the edge extraction process is executed on the current image data.
  • the image processing unit 12 compares the edge extraction result for the past image data with the edge extraction result for the current image data, and the difference obtained from the both edge extraction results (for example, the shape and position of the extracted edge). Etc.) is determined (detected) (step S10).
  • the difference is obtained as a difference value between a past edge extraction result and a current edge extraction result, for example.
  • the image processing unit 12 determines whether or not the difference (difference value) in the edge extraction result is within a predetermined range (step S11). For example, if the difference value of the size of the edge is less than or equal to a predetermined value, or the difference value of the edge position is less than or equal to the predetermined value, the process is terminated. On the other hand, if the difference between the edge extraction results is outside the predetermined range, the image processing unit 12 turns on the image change flag (second flag) stored in the storage unit 14 (step S12), and then ends the processing. To do. For example, if the difference value of the size of the edge shape exceeds a predetermined value or the difference value of the edge position exceeds a predetermined value, the image processing unit 12 turns on the second flag and ends the processing.
  • the image processing unit 12 is configured to detect a specific subject (for example, a moving object carried by a person or a stationary object such as a window in addition to a moving object of a person) from the edge extraction result.
  • a specific subject for example, a moving object carried by a person or a stationary object such as a window in addition to a moving object of a person
  • FIG. 4 it is assumed that a person is hardly moving (or is still) in a plurality of continuous (three in the illustrated example) frames F n ⁇ 1 , F n , and F n + 1. .
  • both the image instability flag and the image change flag are turned off in the image processing of the image processing unit 12 described above.
  • the control unit 10 selects an operation condition corresponding to a case where the image instability flag and the image change flag are both off among the plurality of operation conditions stored in the storage unit 14 (first operation when no moving object is detected). Condition) is selected and read from the storage unit 14. Then, the control unit 10 converts the image (still image) of one frame F n of the plurality of frames F n ⁇ 1 , F n , F n + 1 into a JPEG image according to the read operation condition. It is preferable to instruct the processing unit 12.
  • the image processing unit 12 receives the instruction from the control unit 10, and outputs to the transmission unit 13 converts the image of the one frame F n in JPEG images.
  • the transmission unit 13 transmits the JPEG image output from the image processing unit 12 to the image display device 2 via the transmission path 3.
  • the image transmission device 1 can transmit resources that are small in change of a subject as a still image instead of a moving image, and can reliably transmit necessary images while suppressing waste of resources.
  • the attitude of the image transmission device 1 (the imaging unit 11). (Imaging range) is not changed, and it is assumed that a subject (a person and / or a moving object (for example, luggage)) is moving greatly. At this time, in the image processing of the image processing unit 12 described above, it is considered that the image instability flag is turned on because the subject (person and / or moving object) moves greatly.
  • the image change flag is turned off because subjects other than humans (stationary objects such as furniture and windows) do not move.
  • the rectangular figure shown by the lower left in each frame in FIG. 5 shows the luggage which a person carries.
  • the control unit 10 selects an operation condition corresponding to the case where the image instability flag is on and the image change flag is off among the plurality of operation conditions stored in the storage unit 14 (first operation condition when detecting a moving object). ) Is selected and read from the storage unit 14. Then, the control unit 10 causes the image processing unit 12 to compress and encode an image composed of the plurality of frames F n ⁇ 2 , F n ⁇ 1 , F n , and F n + 1 as a moving image according to the read operation condition. It is preferable to indicate.
  • the image processing unit 12 compresses and encodes an image composed of the plurality of frames F n ⁇ 2 , F n ⁇ 1 , F n , and F n + 1 as a moving image, and sends it to the transmission unit 13. Output.
  • the transmission unit 13 transmits the image data (moving image data) output from the image processing unit 12 to the image display device 2 via the transmission path 3. That is, the image transmission apparatus 1 can monitor the state in the house in detail by transmitting an image with a large change in the subject as a moving image instead of a still image.
  • control unit 10 read in accordance with operating conditions (operating conditions and different operating conditions of the FIG. 5), the plurality of frame F n-1, F n, of one of the F n + 1 frame F n
  • the image processing unit 12 may be instructed to convert an image (still image) into a JPEG image.
  • the image (frame) selected by the control unit 10 is preferably an image in which a person appears in the position closest to the center of the image.
  • the image processing unit 12 receives the instruction from the control unit 10, and outputs to the transmission unit 13 converts the image of the one frame F n in JPEG images.
  • the transmission unit 13 transmits the JPEG image output from the image processing unit 12 to the image display unit 2 via the transmission path 3. That is, the image transmission unit 1 transmits, as a still image, not a moving image, for an image in which the main subject (a person and / or a moving object) changes greatly and another subject (a stationary object such as furniture) changes little. Therefore, it is possible to suppress waste of resources and to reliably transmit a necessary image.
  • the image transmission apparatus 1 when the state in which the posture of the image transmission apparatus 1 (the imaging range of the imaging unit 11) is changed or the state where the lens 101 is hidden by a cloth or the like is maintained, a plurality of consecutive frames are included. Since there is no significant change, the image instability flag is turned off. On the other hand, in the comparison with the past edge extraction results, the image change flag is turned on because the subject has moved greatly.
  • control unit 10 selects an operation condition corresponding to the case where the image instability flag is off and the image change flag is on among the plurality of operation conditions stored in the storage unit 14 (when no moving object is detected).
  • the second operation condition is selected and read from the storage unit 14.
  • the control unit 10 reduces the plurality of frames F n ⁇ 2 , F n ⁇ 1 , F n , and F n + 1 , and reduces the plurality of reduced frames f n ⁇ 2 , f n ⁇ 1 , f n , and f n + 1 .
  • the image processing unit 12 is instructed to arrange the images (thumbnail images) vertically and horizontally and combine them into one still image.
  • the image processing unit 12 converts the images of the four frames F n ⁇ 2 , F n ⁇ 1 , F n , and F n + 1 into reduced JPEG images, and these four frames JPEG images of frames f n-2 , f n ⁇ 1 , f n , and f n + 1 are arranged vertically and horizontally to synthesize one frame of JPEG image (see FIG. 7).
  • the transmission unit 13 transmits the JPEG image output from the image processing unit 12 to the image display device 2 via the transmission path 3. Then, by displaying the JPEG image on the display unit 21 of the image display device 2, it is possible to alert the user (monitoring person) to take an appropriate countermeasure.
  • the image transmission apparatus 1 of the present embodiment when the image transmission apparatus 1 of the present embodiment is installed so as to be placed on a table top or a shelf of a desk, for example, the image transmission apparatus 1 is moved by a pet (dog or cat, etc.) raised indoors, or moved. There is a possibility of being.
  • the image captured under such circumstances is the degree of change in time series, that is, the inter-frame difference between a plurality of (four in the illustrated example) frames F n ⁇ 2 , F n ⁇ 1 , F n , and F n + 1. Is expected to be considerably larger (see FIG. 7).
  • control unit 10 selects an operation condition corresponding to the case where the image instability flag and the image change flag are both turned on among the plurality of operation conditions stored in the storage unit 14 (when the moving object is detected). 2 operation conditions) is selected and read from the storage unit 14.
  • the control unit 10 preferably executes at least one of the following second to fourth processes according to the read operation condition. More preferably, the control unit 10 further executes the first process.
  • control unit 10 In the first process, the control unit 10 generates a message notifying that the imaging unit 11 is not stationary, and transmits a transmission signal including the message from the transmission unit 13 to the image display device 2. In the image display device 2 that has received the message, the control unit 20 displays the message on the display unit 21 so that the user (monitoring person) can be alerted to take appropriate measures. .
  • the control unit 10 selects any one of the plurality of frames F n ⁇ 2 , F n ⁇ 1 , F n , and F n + 1 (for example, F n ). Further, the control unit 10 instructs the image processing unit 12 to convert the JPEG image obtained by reducing an image (still image) of the frame F n selected. Alternatively, the control unit 10 instructs the image processing unit 12 to convert an image (still image) of the frame F n selected in highly compressed JPEG images.
  • the image processing unit 12 receives the instruction from the control unit 10, and outputs to the transmitting unit 13 converts the one frame F n JPEG image or a high compression ratio JPEG image obtained by reducing the image.
  • the transmission unit 13 transmits the JPEG image output from the image processing unit 12 to the image display device 2 via the transmission path 3. Then, by displaying the JPEG image on the display unit 21 of the image display device 2, it is possible to alert the user (monitoring person) to take an appropriate countermeasure.
  • the control unit 10 reduces the plurality of frames F n ⁇ 2 , F n ⁇ 1 , F n , and F n + 1 and also reduces the plurality of reduced frames f n ⁇ 2 , f n ⁇ 1 ,
  • the image processing unit 12 is instructed to arrange the images f n and f n + 1 (thumbnail images) vertically and horizontally and combine them into one still image (see FIG. 7).
  • the image processing unit 12 converts the images of the four frames F n ⁇ 2 , F n ⁇ 1 , F n , and F n + 1 into reduced JPEG images, and these four frames JPEG images of frames f n ⁇ 2 , f n ⁇ 1 , f n , and f n + 1 are arranged vertically and horizontally to synthesize one frame of JPEG image.
  • the transmission unit 13 transmits the JPEG image output from the image processing unit 12 to the image display device 2 via the transmission path 3. Then, by displaying the JPEG image on the display unit 21 of the image display device 2, it is possible to alert the user (monitoring person) to take an appropriate countermeasure.
  • control unit 10 instructs the image processing unit 12 to generate a reduced moving image by reducing the number of pixels.
  • the image processing unit 12 receives an instruction from the control unit 10 and generates a reduced moving image by reducing (thinning out) the number of pixels of a plurality of frames.
  • the transmission unit 13 transmits the moving image generated by the image processing unit 12 to the image display device 2 via the transmission path 3. Then, by displaying the reduced moving image on the display unit 21 of the image display device 2, it is possible to alert the user (monitor) to take appropriate measures.
  • the image transmission apparatus 1 After the image transmission apparatus 1 receives the previous image request command and transmits an image, it may fall into the abnormal situation as described above until the current image request command is received (see FIG. 8). .
  • the image processing unit 12 follows the flowchart shown in FIG. 3 and the image F m corresponding to the previous image request command and the image F n corresponding to the current image request command are time-sequentially. Calculate the degree of change. If the image processing unit 12 determines that the degree exceeds the upper limit value (if the image instability flag is turned on), the image processing unit 12 notifies the control unit 10 of the determination result.
  • the control unit 10 preferably selects an operation condition stored in the storage unit 14 and executes at least one of the following two processes.
  • the control unit 10 In the first process, the control unit 10 generates a message notifying that an abnormality has occurred in the image transmission apparatus 1 (for example, falling down), and transmits a transmission signal including the message from the transmission unit 13. The image is transmitted to the image display device 2. In the image display device 2 that has received the message, the control unit 20 displays the message on the display unit 21 so that the user (monitoring person) can be alerted to take appropriate measures. .
  • control unit 10 instructs the image processing unit 12 to convert images (still images) of a plurality of frames F n corresponding to the current image request command into reduced JPEG images f n. .
  • control unit 10 instructs the image processing unit 12 to convert the frame F n of the image (still image) in highly compressed JPEG images.
  • the image processing unit 12 receives the instruction from the control unit 10, and outputs to the transmitting unit 13 converts the one frame F n JPEG image or a high compression ratio JPEG image obtained by reducing the image.
  • the transmission unit 13 transmits the JPEG image output from the image processing unit 12 to the image display device 2 via the transmission path 3. Then, by displaying the JPEG image on the display unit 21 of the image display device 2, it is possible to alert the user (monitoring person) to take an appropriate countermeasure.
  • the image transmission device 1 includes the imaging unit 11, the image processing unit 12, the transmission unit 13, the storage unit 14, and the control unit 10.
  • the imaging unit 11 is configured to capture an image.
  • the image processing unit 12 is configured to perform image processing on the image captured by the imaging unit 11.
  • the transmission unit 13 is configured to transmit an image obtained by image processing to one or more image display apparatuses 2 via the transmission path 3.
  • the storage unit 14 is configured to store a plurality of operation conditions of the image processing unit 12.
  • the control unit 10 selects an operation condition corresponding to the image captured by the imaging unit 11 from among a plurality of operation conditions stored in the storage unit 14, and operates the image processing unit 12 with the selected operation condition. Configured to let
  • the image transmission system of the present embodiment includes the image transmission device 1 and one or more image display devices 2 connected to the image transmission device 1 via the transmission path 3.
  • the image display device 2 includes a transmission unit 23 and a display unit 21. Further, the image display device 2 is configured to receive an image transmitted from the image transmission device 1 via the transmission path 3 by the transmission unit 23 and display the image received by the transmission unit 23 on the display unit 21. .
  • the image transmission apparatus 1 and the image transmission system according to the present embodiment are configured as described above, resources are wasted when the image processing unit 12 operates under an operation condition corresponding to an image captured by the imaging unit 11. It is possible to suppress and transmit a necessary image reliably.
  • the imaging unit 11 is preferably configured to capture an image at a predetermined frame rate.
  • the image processing unit 12 obtains (detects) the degree to which the image obtained from the image processing unit 12 changes in time series, and selects one or more frames of images from the plurality of images obtained from the imaging unit 11.
  • the control unit 10 preferably selects an operation condition corresponding to the degree from among a plurality of operation conditions stored in the storage unit 14. Further, the control unit 10 operates the image processing unit 12 under the selected operating condition, and transmits one or more frames of images corresponding to the number of pixels, the number of frames, the frame interval, and the compression specifications included in the operating condition. 13 is preferably configured to transmit to the image display device 2.
  • the image transmission apparatus 1 is configured as described above, and operates the image processing unit 12 under operating conditions corresponding to the degree to which the image changes in time series (the state of the image instability flag and the image change flag). The time and power required for image transmission can be minimized.
  • the control unit 10 determines that the predetermined operating condition is satisfied when the degree exceeds the threshold value for a predetermined time or longer (when the image instability flag is turned on). Is preferably configured to select. Further, the control unit 10 operates the image processing unit 12 under the predetermined operation condition to reduce a plurality of frames of images and arranges the reduced thumbnail images of the plurality of frames vertically and horizontally to form a composite image that is one frame. Preferably, it is generated (see FIG. 7). Furthermore, the control unit 10 is preferably configured to transmit the composite image from the transmission unit 13 to the image display device 2.
  • the synthesized image is displayed on the display unit 21 of the image display device 2, so that the user (monitoring person) can be alerted to take appropriate measures.
  • the image processing unit 12 is configured to generate the composite image so that the number of pixels of the composite image is the same as the number of pixels of the images of the plurality of frames before reduction. Is preferred.
  • the control unit 10 determines a predetermined operation condition when the state where the degree exceeds the threshold value continues for a predetermined time or longer (when the image instability flag is turned on). Is preferably configured to select. Further, the control unit 10 operates the image processing unit 12 under the predetermined operating condition to select one frame image (still image), and transmits the selected one frame image from the transmission unit 13 to the image display device 2. It is preferable to be configured (see FIGS. 4 and 6).
  • the image transmission apparatus 1 can transmit a necessary image reliably while suppressing waste of resources by transmitting an image with a small change in subject as a still image instead of a moving image.
  • the control unit 10 performs a predetermined operation when the degree of the predetermined number of pixels or more in the image exceeds a predetermined threshold (when the image change flag is turned on). It is preferably configured to select conditions. Further, the control unit 10 operates the image processing unit 12 under the predetermined operation condition to select one frame image, and transmits the selected one frame image (still image) from the transmission unit 13 to the image display device 2. It is preferable to be configured (see FIG. 8).
  • the image processing unit 12 is preferably configured to generate a thumbnail image obtained by reducing the image when operating under predetermined operating conditions (see FIG. 7).
  • the control unit 10 is preferably configured to transmit the thumbnail image from the transmission unit 13 to the image display device 2.
  • the image processing unit 12 is preferably configured to generate an image obtained by compressing the image at a relatively high compression rate when operating under the predetermined operating condition.
  • the control unit 10 is preferably configured to transmit the compressed image from the transmission unit 13 to the image display device 2.
  • the control unit 10 selects a predetermined operating condition when the degree in the specific area of the image is larger than the degree in the other area except the specific area. It is preferable to be configured as described above.
  • the image processing unit 12 is configured to select an image of one frame (frame F n ) in which the distance between the specific area and the center of the image is minimized when operating under the predetermined operating condition. It is preferable (see FIG. 6).
  • the control unit 10 is preferably configured to transmit the selected one-frame image (frame F n ) from the transmission unit 13 to the image display device 2.
  • the image transmission device 1 includes an imaging unit 11, an image processing unit 12, a transmission unit 13, a storage unit 14, and a control unit 20.
  • the imaging unit 11 is configured to capture an image at a predetermined frame rate to obtain a captured image.
  • the image processing unit 12 is configured to perform image processing of a captured image and generate a processed image.
  • the transmission unit 13 is configured to transmit the processed image to one or more image display devices 2 via the transmission path 3.
  • the storage unit 14 performs a first operation condition for image processing of a captured image obtained from a preset area and a second operation for image processing of a captured image under an environment different from the captured image to be obtained from the area. It is configured to store at least the operating conditions.
  • the control unit 20 compares the captured image from the imaging unit 11 with the captured image obtained in advance from the area, so that the captured image from the imaging unit 11 is the captured image obtained from the area or the area. It is comprised so that it may be determined whether it is a picked-up image of the environment different from the picked-up image which should be obtained from.
  • the control unit 20 operates the image processing unit 12 according to the first operation condition stored in the storage unit 14 when the captured image from the imaging unit 11 is a captured image obtained from the above area.
  • the image processing unit 12 is configured to operate according to the second operation condition stored in the storage unit 14 when the captured image from the unit 11 is a captured image under an environment different from the captured image to be obtained from the area. Is done. In this embodiment, it is possible to determine whether the imaging unit 11 has obtained a captured image from a preset area. As a result, the image processing unit 12 can be appropriately operated depending on whether the imaging unit 11 obtains a captured image from a preset area.
  • control unit 20 performs in advance the first processing result that is the result of the edge extraction process performed on the captured image from the imaging unit 11 and the captured image obtained in advance from the area.
  • the second processing result that is the result of the executed edge extraction processing is compared.
  • the control unit 20 operates the image processing unit 12 according to the first operation condition if the difference obtained from the first processing result and the second processing result is within a predetermined range, and if the difference is outside the predetermined range.
  • the image processing unit 12 is configured to operate according to the second operation condition.
  • the first operation condition includes a condition for generating a processed image as a moving image or one still image from a plurality of captured images from the imaging unit 11.
  • the second operation condition is a processing image as a single still image including a plurality of thumbnail images from a plurality of captured images from the imaging unit 11 or a moving image obtained by reducing the number of pixels of the plurality of captured images. Includes conditions for generating a processed image.
  • the second operation condition is a condition for adding information (for example, a message) indicating that the captured image from the imaging unit 11 is a captured image under an environment different from the captured image to be obtained from the area to the processed image. Further, it may be included.
  • the second operation condition may include a condition for generating a processed image as one still image from a plurality of captured images from the imaging unit 11 and adding the information to the processed image.
  • the present invention is not limited to the image transmission apparatus 1 and may be an image transmission method or program to which various embodiments of the present specification can be applied.
  • the image transmission method is executed by the image transmission apparatus 1 (specifically, the control unit 10).
  • the image transmission device 1 includes an imaging unit 11, an image processing unit 12, a transmission unit 13, and a storage unit 14.
  • the imaging unit 11 is configured to capture an image.
  • the image processing unit 12 is configured to perform image processing on the image captured by the imaging unit 11.
  • the transmission unit 13 is configured to transmit an image obtained by image processing to one or more image display apparatuses 2 via a transmission path.
  • the storage unit 14 is configured to store a plurality of operation conditions of the image processing unit 12.
  • the image transmission method selects an operation condition corresponding to an image captured by the imaging unit 11 from among a plurality of operation conditions stored in the storage unit 14, and the image is selected according to the selected operation condition. This includes operating the processing unit 12.
  • the program according to an embodiment causes a computer to function as the control unit 10 of the image transmission apparatus 1.
  • the image transmission device 1 includes an imaging unit 11, an image processing unit 12, a transmission unit 13, and a storage unit 14.
  • the imaging unit 11 is configured to capture an image.
  • the image processing unit 12 is configured to perform image processing on the image captured by the imaging unit 11.
  • the transmission unit 13 is configured to transmit an image obtained by image processing to one or more image display apparatuses 2 via a transmission path.
  • the storage unit 14 is configured to store a plurality of operation conditions of the image processing unit 12.
  • the program of the present embodiment selects a computer from among a plurality of operation conditions stored in the storage unit 14 and selects an operation condition corresponding to an image captured by the image capturing unit 11, and an image with the selected operation condition.
  • the processing unit 12 is caused to function as the control unit 10 configured to operate.

Abstract

 画像伝送装置(1)は、撮像部(11)、画像処理部(12)、伝送部(13)、記憶部(14)及び制御部(10)を備える。記憶部(14)は、画像処理部(12)の複数通りの動作条件を記憶するように構成される。制御部(10)は、記憶部(14)が記憶している複数通りの動作条件のうち、撮像部(11)で撮像された画像に対応した動作条件を選択し、且つ選択した動作条件で画像処理部(12)を動作させるように構成される。

Description

画像伝送装置及び画像伝送システム
 本発明は、カメラで撮像された画像を伝送路を介して伝送するように構成される画像伝送装置、及び当該画像伝送装置を含む画像伝送システムに関する。
 従来例として、日本国特許出願公開番号2001-28740(以下「文献1」という)の画像授受システム及びカメラ装置及びホスト装置を例示する。
 文献1記載の従来例では、ホスト装置(ノート型のパーソナルコンピュータ)に対して、カメラ装置(ビデオカメラ)が有線伝送路と無線伝送路の2種類の伝送路で択一的に接続される。そして、ホスト装置は、何れの伝送路でカメラ装置と接続されているかを識別し、各伝送路に対応した制御情報(画像符号化の有無や圧縮率等)をカメラ装置に送信する。カメラ装置は、ホスト装置から受け取る前記制御情報に応じて画像を符号化したり、圧縮率を変更するなどの処理を行う。なお、カメラ装置は、複数台のホスト装置と無線伝送路で接続される場合、撮像した画像を当該複数台のホスト装置に個別に送信することができる。
 ところで、従来例におけるカメラ装置(画像伝送装置)が任意の場所(屋内又は屋外)に据え置かれる場合、不測の事態が生じてカメラ装置の撮影状態が変化してしまう可能性がある。例えば、カメラ装置が不審者の侵入を監視する用途に用いられるとき、不審者に動かされて撮像範囲が変えられてしまったり、あるいは、布などが被せられて監視領域が撮像できなくなる事態が想定される。
 しかしながら、上記従来例では、利用者(監視者)がホスト装置のディスプレイ画面で画像を確認しない限り、カメラ装置の撮影状態の変化に気付かない可能性が高い。そして、撮影状態の変化が見過ごされたままでカメラ装置の撮影と画像の伝送が継続されると、カメラ装置やホスト装置のリソースが浪費される虞がある。
 本発明は、上記課題に鑑みて為されたものであり、リソースの浪費を抑制し且つ必要な画像を確実に伝送することを目的とする。
 本発明の画像伝送装置は、撮像装置と、画像処理装置と、伝送装置と、記憶装置と、制御装置とを備える。前記撮像装置は、画像を撮像するように構成される。前記画像処理装置は、前記撮像装置で撮像される画像の画像処理を行うように構成される。前記伝送装置は、前記画像処理で得られる画像を伝送路を介して1乃至複数の画像表示装置に伝送するように構成される。前記記憶装置は、前記画像処理装置の複数通りの動作条件を記憶するように構成される。前記制御装置は、前記記憶装置が記憶している前記複数通りの動作条件のうち、前記撮像装置で撮像される画像に対応した動作条件を選択し、且つ選択した前記動作条件で前記画像処理装置を動作させるように構成される。
 本発明の画像伝送装置及び画像伝送システムは、リソースの浪費を抑制し且つ必要な画像を確実に伝送することができるという効果がある。
 図面は本教示に従って一又は複数の実施例を示すが、限定するものではなく例に過ぎない。図面において、同様の符号は同じか類似の要素を指す。
本発明に係る画像伝送装置の実施形態、並びに本発明に係る画像伝送システムの実施形態を示すシステム構成図である。 同上の画像伝送装置を示す斜視図である。 同上の画像伝送装置の動作を説明するためのフローチャートである。 同上における画像処理の説明図である。 同上における画像処理の説明図である。 同上における画像処理の説明図である。 同上における画像処理の説明図である。 同上における画像処理の説明図である。
 以下、本発明に係る画像伝送装置及び画像伝送システムの実施形態について、図面を参照して詳細に説明する。
 本実施形態の画像伝送システムは、図1に示すように画像伝送装置1と、1又は複数の画像表示装置2とが伝送路3で接続されて構成される。ただし、伝送路3はメタル線や光ファイバー、同軸ケーブルなどを伝送媒体とする有線の伝送路でもよいし、あるいは、電波を伝送媒体とする無線の伝送路でもよい。なお、図1では画像表示装置2を3台しか図示していないが、1~2台又は4台以上の画像表示装置2が伝送路3に接続されても構わない。
 画像伝送装置1は、制御部(制御装置)10と、撮像部(撮像装置)11と、画像処理部(画像処理装置)12と、伝送部(伝送装置)13と、記憶部(記憶装置)14とを備える。
 撮像部11は、画像(静止画像又は動画像)を撮像するように構成される。例えば、図示は省略するが、撮像部11は、固体撮像素子、光学部品、信号処理回路などを有する。固体撮像素子には、CCD(Charge Coupled Devices)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどが採用される。また、光学部品は、固体撮像素子に光を集光するためのレンズや、固体撮像素子の受光量を調整するための絞り(アイリス)などを含む。
 信号処理回路は、固体撮像素子の全ての画素(受光素子)を走査して各画素の画素値(電荷)をアナログの電気信号として読み出し、且つ当該電気信号をディジタル信号(画像データ)に変換するように構成される。なお、信号処理回路は、所定のフレームレート(例えば、30fps<frame per second>や60fpsなど)で画像データを生成するように構成される。ただし、このような固体撮像素子及び信号処理回路は従来周知であるから、詳細な構成の図示並びに説明は省略する。
 画像処理部12は、撮像部11で撮像された画像(撮像画像)の画像処理を行うように構成される。画像処理部12は、例えば、フレームメモリとDSP(Digital Signal Processor)で構成される。フレームメモリはフレームバッファとも呼ばれ、撮像部11から出力される1乃至複数フレームの画像データを記憶するように構成される。また、DSPは、フレームメモリから読み出す画像データに対して、積和演算を実行することで種々の画像処理を行うように構成される。ただし、画像処理部12は、MPU(Micro-Processing Unit)と、MPUで実行される画像処理用のソフトウェアとで構成されても構わない。
 例えば、画像処理部12は、所定の圧縮符号化方式で画像データを圧縮及び符号化する圧縮符号化処理、画像データを解析して移動体(人)を検知する人検知処理などの画像処理を行うように構成される。なお、画像処理部12が圧縮符号化処理において行う圧縮符号化方式は、例えば、動画像についてはH.264/MPEG-4 AVCなどが好ましく、静止画像についてはJPEGなどが好ましい。
 また、画像処理部12は、撮像部11から出力される画像が時系列で変化する度合を求め(検知し)、求めた(検知した)度合を制御部10に出力するように構成される。上記度合については後述する。
 伝送部13は、画像処理部12による画像処理で得られた画像(処理画像)を、伝送路3を介して1乃至複数の画像表示装置2に伝送するように構成される。例えば、伝送部13は、画像処理部12で圧縮符号化された後の画像データを、その画像データのサイズに応じた数のパケットに分割するように構成される。さらに、伝送部13は、分割した複数のパケットを所定のディジタル変調方式(BPSK方式やQAM方式、OFDM方式など)でディジタル変調して伝送信号を生成し、当該伝送信号を伝送路3を介して画像表示装置2へ伝送するように構成される。
 制御部10は、MPU(Micro-Processing Unit)やメモリからなるハードウェアと、メモリに格納されてMPUに実行されるプログラム群からなるソフトウェアとで構成される。つまり、制御部10は、MPU(コンピュータ)で各プログラムを実行することにより、後述する様々な処理を実行するように構成されている。
 記憶部14は、画像処理部12の複数通りの動作条件を記憶するように構成される。例えば、記憶部14は、フラッシュメモリなどの書換可能な不揮発性の半導体メモリからなる。画像処理部12の動作条件には、少なくとも画像表示装置2へ伝送する画像の画素数、フレーム数、フレーム間隔、圧縮仕様(圧縮方式)が含まれる。
 図1の例では、画像伝送装置1は、伝送路3を介して、複数の画像表示装置2と接続されている。この例では、記憶部14は、その複数の画像表示装置2(2A,2B,2C,…)を個々に識別するために複数の画像表示装置2にそれぞれ割り当てられた複数の識別符号と、画像表示装置2毎の複数通りの動作条件との対応関係を表したデータテーブルを記憶するように構成される。別例として、複数の画像表示装置2をそれぞれ識別するための複数の識別符号とともに、あるいは複数の識別符号の代わりに、1又はそれ以上の利用者に割り当てられる1又はそれ以上のユーザーIDと、ユーザーID毎の複数通りの動作条件との対応関係を表したデータテーブルを記憶部14が記憶しても構わない。この場合、セキュリティ確保の観点から、ユーザーIDは、パスワードと紐付けられることが好ましい。つまり、制御部10は、記憶部14に記憶される、各々がユーザーIDとパスワードを含む複数の組によって各利用者を認証するように構成されることが好ましい。
 ここで、本実施形態の画像伝送装置1は、図2に示すように直方体状の合成樹脂成形体からなるハウジング100と、ハウジング100内に収納される、上述した制御部10、撮像部11、画像処理部12、伝送部13及び記憶部14などから構成される。ハウジング100の前面には、半球状のレンズカバー102が回転可能に設けられる。また、レンズカバー102には、撮像部11の固体撮像素子と光学部品(レンズ101)が固定されている。つまり、図示しない駆動機構によってレンズカバー102が回転することにより、固体撮像素子及びレンズ101の姿勢(撮像範囲)が変化することになる。ただし、前記駆動機構は、制御部10によって制御されるように構成される。なお、ハウジング100は、図示しない机上に設置されたり、あるいは、壁や天井などに固定されるように構成される。
 本実施形態の画像伝送装置1は、一般にネットワークカメラと呼ばれ、例えば、住居内に設置されて当該住居内を撮像した画像を画像表示装置2に伝送することにより、住居内を監視する用途などに用いられる。ただし、本実施形態の画像伝送装置1の設置場所は住居内(屋内)に限定されず、住居外(屋側又は屋外)であっても構わない。
 一方、画像表示装置2は、図1に示すように制御部20と、表示部(表示装置)21と、画像処理部22と、伝送部 (第2の伝送装置)23と、記憶部24と、操作入力部(操作入力装置)25とを備える。
 伝送部23は、伝送路3を介して伝送される伝送信号を受信し、当該伝送信号を所定のディジタル復調方式でディジタル復調して前記パケット(データ)を取得するように構成される。また、伝送部23は、受信した複数のパケット(データ)から元(1フレーム)の画像データを再構成し、且つ再構成した画像データを画像処理部22に出力するように構成される。さらに、伝送部23は、画像データ以外のデータ、例えば、画像伝送装置1に対する指示を与えるための制御データなどを含む伝送信号を伝送路3を介して伝送するように構成される。
 画像処理部22は、例えば、フレームメモリとDSPで構成される。フレームメモリは、伝送部23から出力される画像データを記憶するように構成される。また、DSPは、フレームメモリから読み出す画像データに対して、積和演算を実行することで種々の画像処理を行うように構成される。なお、画像処理部22が行う画像処理については、後述する。
 表示部21は、例えば、液晶ディスプレイと、液晶ディスプレイの駆動回路とを有する。ただし、表示部21は、液晶ディスプレイの代わりに有機ELディスプレイと、有機ELディスプレイの駆動回路とを有しても構わない。駆動回路は、例えば、DVI(Digital Visual Interface)を介して画像処理部22から画像データを受け取り、且つ液晶ディスプレイを駆動して、受け取った画像データに対応する画像(動画像及び静止画像)を表示するように構成される。
 操作入力部25は、人による操作入力を受け付け、当該操作入力に対応した電気信号(操作信号)を制御部20へ出力するように構成される。このような操作入力部25は、例えば、タッチパネルやキーボードなどの入力デバイスで構成される。
 制御部20は、MPUやメモリからなるハードウェアと、メモリに格納されてMPUに実行されるプログラム群からなるソフトウェアとで構成される。つまり、制御部20は、MPUで各プログラムを実行することにより、後述する様々な処理を実行するように構成されている。
 記憶部24は、フラッシュメモリなどの書換可能な不揮発性の半導体メモリからなり、固有の識別符号を記憶している。
 なお、画像表示装置2は、デスクトップ型又はノート型のパーソナルコンピュータ、あるいはタブレット端末やスマートフォンなどのように、有線若しくは無線の通信機能と画像を表示するためのデバイス(液晶ディスプレイなど)とを備えるものであればよい。ただし、画像表示装置2が前記パーソナルコンピュータやタブレット端末、スマートフォンである場合、表示部21と操作入力部25がタッチパネル(あるいはタッチスクリーンとも呼ばれる)として一体化されていてもよい。
 次に、本実施形態の画像伝送システムの基本的な動作を説明する。
 画像表示装置2(例えば、2A)では、操作入力部25で所定の操作入力が受け付けられると、制御部20が画像伝送を要求するためのコマンド(画像要求コマンド)を生成する。伝送部23は、制御部20から受け取った画像要求コマンドを含む伝送信号を生成し、当該伝送信号を伝送路3を介して画像伝送装置1へ伝送する。
 画像伝送装置1では、伝送部13が前記伝送信号を受信し、当該伝送信号から復調した画像要求コマンド及び送信元アドレスを制御部10に渡す。なお、送信元アドレスは、画像表示装置2(例えば、2A)に割り当てられた固有の識別符号(例えば、IPアドレスなど)であり、複数の画像表示装置2(2A,2B,2C,…)に複数の識別符号がそれぞれ予め割り当てられている。
 制御部10は、前記画像要求コマンド及び送信元アドレスを受け取ると、当該送信元アドレス(識別符号)に対応する動作条件を記憶部14のデータテーブルから読み出す。そして、制御部10は、読み出した動作条件で画像処理部12を動作させる。
 画像処理部12は、図3のフローチャートに示す手順で、画像が時系列で変化する度合を求める(検知する)。すなわち、画像処理部12は、撮像部11から新しい画像データを取得し(ステップS1)、その後、カウンタをゼロにリセットする(ステップS2)。続いて、画像処理部12は、撮像部11から次の新しい画像データを取得し(ステップS3)、前回の画像データと今回の画像データのフレーム間差分を演算する(ステップS4)。
 画像処理部12は、フレーム間差分の差分値が所定範囲内か否かを判断する(ステップS5)。詳しくは、フレーム間差分において、画像処理部12は、フレーム間の各画素差分値がしきい値以上になるか否かを判定し、しきい値以上になる画素の領域を移動物体の領域として抽出する。次いで、画像処理部12は、抽出した移動物体の領域の移動範囲(移動距離)が上記所定範囲内(所定距離以下)か否かを判断する。移動範囲が所定範囲内であれば(移動距離が所定距離以下であれば)、画像処理部12は、今回の画像データに対して、エッジ(輪郭)抽出処理を実行する(ステップS6)。このとき、制御部10は、そのエッジ抽出処理の結果(以下「エッジ抽出結果」という)を記憶部14に記憶する。これにより、過去の画像データに対するエッジ抽出結果が記憶部14に記憶されることになる。一方、移動範囲が所定範囲外であれば(移動距離が所定距離を超えれば)、画像処理部12は、カウンタに1を加算する(ステップS7)。さらに、画像処理部12は、カウンタの値を所定値と比較し(ステップS8)、カウンタの値が所定値以下であれば、ステップS3に戻る。そして、カウンタの値が所定値よりも大きくなれば、画像処理部12は、記憶部14に記憶している画像不安定フラグ(第1フラグ)をオンし(ステップS9)、その後、ステップS6に進んで今回の画像データに対してエッジ抽出処理を実行する。
 次に、画像処理部12は、過去の画像データに対するエッジ抽出結果と、今回の画像データに対するエッジ抽出結果とを比較し、両エッジ抽出結果から得られる差違(例えば抽出されたエッジの形状や位置などに関する差異)を求める(検知する)(ステップS10)。なお、本実施形態では、前記差異は、例えば、過去のエッジ抽出結果と今回のエッジ抽出結果の差分値として求められる。
 画像処理部12は、エッジ抽出結果の差異(差分値)が所定範囲内か否かを判断し(ステップS11)、所定範囲内であれば、処理を終了する。例えば、エッジの形状の大きさの差分値が所定値以下であるか、エッジの位置の差分値が所定値以下であれば、処理を終了する。一方、エッジ抽出結果の差異が所定範囲外であれば、画像処理部12は、記憶部14に記憶している画像変化フラグ(第2フラグ)をオンし(ステップS12)、その後、処理を終了する。例えば、エッジの形状の大きさの差分値が所定値を超えるか、エッジの位置の差分値が所定値を超えれば、画像処理部12は、第2フラグをオンし、処理を終了する。
 ここで、画像処理部12は、エッジ抽出結果から特定の被写体(例えば、人の移動体の他、窓などの静止物体や人が運ぶ移動物体)を検知するように構成されている。例えば、図4に示すように連続する複数(図示例では3つ)のフレームFn-1,F,Fn+1の画像において、人が殆ど動いていない(あるいは静止している)と仮定する。このとき、上述した画像処理部12の画像処理において、画像不安定フラグ及び画像変化フラグは何れもオフになると考えられる。
 制御部10は、記憶部14に記憶されている複数通りの動作条件のうち、画像不安定フラグ及び画像変化フラグが何れもオフである場合に対応した動作条件(移動体非検出時第1動作条件)を選択して記憶部14から読み出す。そして、制御部10は、読み出した動作条件に従い、前記複数のフレームFn-1,F,Fn+1のうちの1つのフレームFの画像(静止画像)をJPEG画像に変換するように画像処理部12に指示することが好ましい。
 画像処理部12は、制御部10からの指示を受けて、前記1つのフレームFの画像をJPEG画像に変換して伝送部13に出力する。伝送部13は、画像処理部12から出力されるJPEG画像を伝送路3を介して画像表示装置2へ伝送する。つまり、画像伝送装置1は、被写体の変化が小さい画像については、動画像ではなく静止画像として伝送することにより、リソースの浪費を抑制し且つ必要な画像を確実に伝送することができる。
 また、図5に示すように連続する複数(図示例では4つ以上)のフレームFn-2,Fn-1,F,Fn+1の画像において、画像伝送装置1の姿勢(撮像部11の撮像範囲)は変わっておらず、被写体(人および/または移動物体(例えば荷物など))が大きく動いていると仮定する。このとき、上述した画像処理部12の画像処理において、被写体(人および/または移動物体)が大きく動くために画像不安定フラグはオンになると考えられる。また、上述した画像処理部12のエッジ抽出結果において、人以外の被写体(家具や窓などの静止物体)が動かないので、画像変化フラグはオフになると考えられる。なお、図5における各フレーム内の左下に示される矩形図は、人が運ぶ荷物を示す。
 制御部10は、記憶部14に記憶されている複数通りの動作条件のうち、画像不安定フラグがオン及び画像変化フラグがオフである場合に対応した動作条件(移動体検出時第1動作条件)を選択して記憶部14から読み出す。そして、制御部10は、読み出した動作条件に従い、前記複数のフレームFn-2,Fn-1,F,Fn+1からなる画像を動画像として圧縮符号化するように画像処理部12に指示することが好ましい。
 画像処理部12は、制御部10からの指示を受けて、前記複数のフレームFn-2,Fn-1,F,Fn+1からなる画像を動画像として圧縮符号化して伝送部13に出力する。伝送部13は、画像処理部12から出力される画像データ(動画像データ)を伝送路3を介して画像表示装置2へ伝送する。つまり、画像伝送装置1は、被写体の変化が大きい画像については、静止画像ではなく動画像として伝送することにより、住居内の様子を詳しく監視することができる。
 図5の代替例として、図6に示すように連続する複数(図示例では3つ)のフレームFn-1,F,Fn+1の画像において、人が大きく動き且つ人およびまたは移動物体以外の被写体(窓や家具などの静止物体)が動いていないと仮定する。このときも、上述した画像処理部12の画像処理において、画像不安定フラグはオンになるが、画像変化フラグはオフになると考えられる。
 この代替例では、制御部10は、読み出した動作条件(図5の動作条件と異なる動作条件)に従い、前記複数のフレームFn-1,F,Fn+1のうちの1つのフレームFの画像(静止画像)をJPEG画像に変換するように画像処理部12に指示するように構成されてもよい。なお、制御部10が選択する画像(フレーム)は、人が画像の中心に最も近い位置に映っている画像であることが好ましい。
 画像処理部12は、制御部10からの指示を受けて、前記1つのフレームFの画像をJPEG画像に変換して伝送部13に出力する。伝送部13は、画像処理部12から出力されるJPEG画像を伝送路3を介して画像表示部2へ伝送する。つまり、画像伝送部1は、主たる被写体(人およびまたは移動物体)の変化が大きく且つ他の被写体(家具などの静止物体)の変化が小さい画像については、動画像ではなく静止画像として伝送することにより、リソースの浪費を抑制し且つ必要な画像を確実に伝送することができる。
 また、画像伝送装置1の姿勢(撮像部11の撮像範囲)が変わった状態が維持されていたり、レンズ101が布などで隠された状態が維持されている場合、連続した複数のフレーム同士には大きな変化がないために画像不安定フラグがオフとなる。一方、過去のエッジ抽出結果との比較においては、被写体が大きく動いていることで画像変化フラグがオンになる。
 この場合、制御部10は、記憶部14に記憶されている複数通りの動作条件のうち、画像不安定フラグがオフ及び画像変化フラグがオンである場合に対応した動作条件(移動体非検出時第2動作条件)を選択して記憶部14から読み出す。
 制御部10は、複数のフレームFn-2,Fn-1,F,Fn+1を縮小し、且つ縮小された複数のフレームfn-2,fn-1,f,fn+1の画像(サムネイル画像)を縦横に並べて1つの静止画像に合成するように画像処理部12に指示する。
 画像処理部12は、制御部10からの指示を受けて、前記4つのフレームFn-2,Fn-1,F,Fn+1の画像を縮小したJPEG画像に変換し、且つこれら4つのフレームfn-2,fn-1,f,fn+1のJPEG画像を縦横に並べて1フレームのJPEG画像を合成する(図7参照)。伝送部13は、画像処理部12から出力されるJPEG画像を伝送路3を介して画像表示装置2へ伝送する。そして、前記JPEG画像が画像表示装置2の表示部21に表示されることにより、適切な対処を採るように利用者(監視者)に注意を喚起することができる。
 ところで、本実施形態の画像伝送装置1は、机の天板や棚の上に置かれるように設置された場合、例えば、室内で飼育するペット(犬や猫など)によって移動させられたり、転がされたりする可能性がある。このような状況下で撮像される画像は、時系列で変化する度合、すなわち、複数(図示例では4つ)のフレームFn-2,Fn-1,F,Fn+1のフレーム間差分の大きさが相当に大きくなると予想される(図7参照)。このとき、上述した画像処理部12の画像処理において、画像不安定フラグ及び画像変化フラグは何れもオンになると考えられる。
 この場合、制御部10は、記憶部14に記憶されている複数通りの動作条件のうち、画像不安定フラグ及び画像変化フラグが何れもオンである場合に対応した動作条件(移動体検出時第2動作条件)を選択して記憶部14から読み出す。そして、制御部10は、読み出した動作条件に従い、次の第2~第4の処理の少なくとも何れか1つを実行することが好ましい。制御部10は、第1の処理を更に実行することがより好ましい。
 第1の処理において、制御部10は、撮像部11が静止していないことを通知するメッセージを生成し、当該メッセージを含む伝送信号を伝送部13から画像表示装置2へ伝送させる。そして、前記メッセージを受け取った画像表示装置2では、制御部20が前記メッセージを表示部21に表示させることにより、適切な対処を採るように利用者(監視者)に注意を喚起することができる。
 第2の処理において、制御部10は、複数のフレームFn-2,Fn-1,F,Fn+1の何れか1つのフレーム(例えば、F)を選択する。さらに、制御部10は、選択したフレームFの画像(静止画像)を縮小したJPEG画像に変換するように画像処理部12に指示する。あるいは、制御部10は、選択したフレームFの画像(静止画像)を圧縮率の高いJPEG画像に変換するように画像処理部12に指示する。
 画像処理部12は、制御部10からの指示を受けて、前記1つのフレームFの画像を縮小したJPEG画像若しくは高圧縮率のJPEG画像に変換して伝送部13に出力する。伝送部13は、画像処理部12から出力されるJPEG画像を伝送路3を介して画像表示装置2へ伝送する。そして、前記JPEG画像が画像表示装置2の表示部21に表示されることにより、適切な対処を採るように利用者(監視者)に注意を喚起することができる。
 第3の処理において、制御部10は、複数のフレームFn-2,Fn-1,F,Fn+1を縮小し、且つ縮小された複数のフレームfn-2,fn-1,f,fn+1の画像(サムネイル画像)を縦横に並べて1つの静止画像に合成するように画像処理部12に指示する(図7参照)。
 画像処理部12は、制御部10からの指示を受けて、前記4つのフレームFn-2,Fn-1,F,Fn+1の画像を縮小したJPEG画像に変換し、且つこれら4つのフレームfn-2,fn-1,f,fn+1のJPEG画像を縦横に並べて1フレームのJPEG画像を合成する。伝送部13は、画像処理部12から出力されるJPEG画像を伝送路3を介して画像表示装置2へ伝送する。そして、前記JPEG画像が画像表示装置2の表示部21に表示されることにより、適切な対処を採るように利用者(監視者)に注意を喚起することができる。
 第4の処理において、制御部10は、画素数を減らして縮小した動画像を生成するように画像処理部12に指示する。
 画像処理部12は、制御部10からの指示を受けて、複数のフレームの画素数を減らして(間引いて)縮小した動画像を生成する。伝送部13は、画像処理部12で生成される動画像を伝送路3を介して画像表示装置2へ伝送する。そして、前記縮小された動画像が画像表示装置2の表示部21に表示されることにより、適切な対処を採るように利用者(監視者)に注意を喚起することができる。
 また、画像伝送装置1が前回の画像要求コマンドを受け取って画像を伝送した後、今回の画像要求コマンドを受け取るまでの間に、上述のような異常な状況に陥る場合が有る(図8参照)。このような場合に備え、画像処理部12は、図3に示したフローチャートに従い、前回の画像要求コマンドに対応した画像Fと、今回の画像要求コマンドに対応した画像Fとが時系列で変化する度合を演算する。そして、画像処理部12は、前記度合が上限値を超えていると判断すれば(画像不安定フラグがオンになれば)、その判断結果を制御部10に通知する。制御部10は、前記判断結果を受け取った場合、記憶部14に記憶されている動作条件を選択して、次の2通りの処理の少なくとも何れか1つを実行することが好ましい。
 第1の処理において、制御部10は、画像伝送装置1に異常が発生していること(例えば、倒れていること)を通知するメッセージを生成し、当該メッセージを含む伝送信号を伝送部13から画像表示装置2へ伝送させる。そして、前記メッセージを受け取った画像表示装置2では、制御部20が前記メッセージを表示部21に表示させることにより、適切な対処を採るように利用者(監視者)に注意を喚起することができる。
 第2の処理において、制御部10は、今回の画像要求コマンドに対応する複数のフレームFの画像(静止画像)を、縮小したJPEG画像fに変換するように画像処理部12に指示する。あるいは、制御部10は、前記フレームFの画像(静止画像)を圧縮率の高いJPEG画像に変換するように画像処理部12に指示する。
 画像処理部12は、制御部10からの指示を受けて、前記1つのフレームFの画像を縮小したJPEG画像若しくは高圧縮率のJPEG画像に変換して伝送部13に出力する。伝送部13は、画像処理部12から出力されるJPEG画像を伝送路3を介して画像表示装置2へ伝送する。そして、前記JPEG画像が画像表示装置2の表示部21に表示されることにより、適切な対処を採るように利用者(監視者)に注意を喚起することができる。
 上述のように本実施形態の画像伝送装置1は、撮像部11と、画像処理部12と、伝送部13と、記憶部14と、制御部10とを備える。撮像部11は、画像を撮像するように構成される。画像処理部12は、撮像部11で撮像された画像の画像処理を行うように構成される。伝送部13は、画像処理で得られた画像を伝送路3を介して1乃至複数の画像表示装置2に伝送するように構成される。記憶部14は、画像処理部12の複数通りの動作条件を記憶するように構成される。制御部10は、記憶部14が記憶している複数通りの動作条件のうち、撮像部11で撮像された画像に対応した動作条件を選択し、且つ選択した動作条件で画像処理部12を動作させるように構成される。
 また、本実施形態の画像伝送システムは、画像伝送装置1と、伝送路3を介して画像伝送装置1に接続される1乃至複数の画像表示装置2とを有する。画像表示装置2は、伝送部23と、表示部21とを備える。また、画像表示装置2は、伝送路3を介して画像伝送装置1から伝送される画像を伝送部23で受信し、伝送部23で受信した画像を表示部21で表示するように構成される。
 本実施形態の画像伝送装置1及び画像伝送システムは上述のように構成されるので、撮像部11で撮像される画像に対応した動作条件で画像処理部12が動作することにより、リソースの浪費を抑制し且つ必要な画像を確実に伝送することができる。
 また、本実施形態の画像伝送装置1において、撮像部11は、所定のフレームレートで画像を撮像するように構成されることが好ましい。画像処理部12は、画像処理部12から得られる画像が時系列で変化する度合を求め(検知し)、且つ撮像部11から得られる複数の画像のうち、1乃至複数フレームの画像を選択して圧縮するように構成されることが好ましい。制御部10は、記憶部14が記憶している複数通りの動作条件のうち、前記度合に対応した動作条件を選択することが好ましい。さらに、制御部10は、画像処理部12をその選択した動作条件で動作させ、前記動作条件に含まれる画素数とフレーム数とフレーム間隔と圧縮仕様に対応した1乃至複数フレームの画像を伝送部13から画像表示装置2へ伝送するように構成されることが好ましい。
 本実施形態の画像伝送装置1は上述のように構成され、画像が時系列で変化する度合(画像不安定フラグ及び画像変化フラグの状態)に対応した動作条件で画像処理部12を動作させるので、画像伝送に必要な時間及び電力を必要最小限に抑えることができる。
 さらに、本実施形態の画像伝送装置1において、制御部10は、前記度合がしきい値を超える状態が所定時間以上継続した場合(画像不安定フラグがオンになった場合)に所定の動作条件を選択するように構成されることが好ましい。また、制御部10は、前記所定の動作条件で画像処理部12を動作させて、複数フレームの画像を縮小し、且つ当該縮小した複数フレームのサムネイル画像を縦横に並べて1フレームとした合成画像を生成させることが好ましい(図7参照)。さらに、制御部10は、前記合成画像を伝送部13から画像表示装置2へ伝送するように構成されることが好ましい。
 上記構成によれば、前記合成画像が画像表示装置2の表示部21に表示されることにより、適切な対処を採るように利用者(監視者)に注意を喚起することができる。
 なお、画像処理部12は、前記合成画像の画素数が、縮小前の前記複数フレームの画像の各画素数と同一の画素数になるように、前記合成画像を生成するように構成されることが好ましい。
 また、本実施形態の画像伝送装置1において、制御部10は、前記度合がしきい値を超える状態が所定時間以上継続した場合(画像不安定フラグがオンになった場合)に所定の動作条件を選択するように構成されることが好ましい。さらに、制御部10は、前記所定の動作条件で画像処理部12を動作させて1フレームの画像(静止画像)を選択し、選択した1フレームの画像を伝送部13から画像表示装置2へ伝送するように構成されることが好ましい(図4及び図6参照)。
 上述のように画像伝送装置1は、被写体の変化が小さい画像については、動画像ではなく静止画像として伝送することにより、リソースの浪費を抑制し且つ必要な画像を確実に伝送することができる。
 本実施形態の画像伝送装置1において、制御部10は、前記画像中の所定数以上の画素における前記度合が所定のしきい値を超える場合(画像変化フラグがオンになる場合)に所定の動作条件を選択するように構成されることが好ましい。さらに、制御部10は、前記所定の動作条件で画像処理部12を動作させて1フレームの画像を選択し、選択した1フレームの画像(静止画像)を伝送部13から画像表示装置2へ伝送するように構成されることが好ましい(図8参照)。
 本実施形態の画像伝送装置1において、画像処理部12は、所定の動作条件で動作する場合、画像を縮小したサムネイル画像を生成するように構成されることが好ましい(図7参照)。制御部10は、前記サムネイル画像を伝送部13から画像表示装置2へ送信するように構成されることが好ましい。
 本実施形態の画像伝送装置1において、画像処理部12は、前記所定の動作条件で動作する場合、前記画像を相対的に高い圧縮率で圧縮した画像を生成するように構成されることが好ましい。制御部10は、前記圧縮された画像を伝送部13から画像表示装置2へ送信するように構成されることが好ましい。
 本実施形態の画像伝送装置1において、制御部10は、前記画像の特定の領域における前記度合が、前記特定の領域を除く他の領域における前記度合よりも大きい場合に所定の動作条件を選択するように構成されることが好ましい。画像処理部12は、前記所定の動作条件で動作する場合、前記特定の領域と、前記画像の中心との距離が極小となる1フレームの画像(フレームF)を選択するように構成されることが好ましい(図6参照)。さらに、制御部10は、選択された1フレームの画像(フレームF)を伝送部13から画像表示装置2へ伝送するように構成されることが好ましい。
 一実施形態において、画像伝送装置1は、撮像部11、画像処理部12、伝送部13、記憶部14及び制御部20を含む。撮像部11は、所定のフレームレートで画像を撮像して撮像画像を得るように構成される。画像処理部12は、撮像画像の画像処理を行って処理画像を生成するように構成される。伝送部13は、伝送路3を介して1乃至複数の画像表示装置2に処理画像を伝送するように構成される。記憶部14は、予め設定されたエリアから得られた撮像画像の画像処理用の第1動作条件と、上記エリアから得られるべき撮像画像とは異なる環境下の撮像画像の画像処理用の第2動作条件とを少なくとも記憶するように構成される。制御部20は、撮像部11からの撮像画像を、上記エリアから予め得られた撮像画像と比較することにより、撮像部11からの撮像画像が上記エリアから得られた撮像画像であるか上記エリアから得られるべき撮像画像とは異なる環境下の撮像画像であるかを判定するように構成される。また、制御部20は、撮像部11からの撮像画像が上記エリアから得られた撮像画像である場合には記憶部14に記憶された第1動作条件に従って画像処理部12を動作させる一方、撮像部11からの撮像画像が上記エリアから得られるべき撮像画像とは異なる環境下の撮像画像である場合には記憶部14に記憶された第2動作条件に従って画像処理部12を動作させるように構成される。この実施形態では、撮像部11が予め設定されたエリアから撮像画像を得ているかどうかを判別することができる。その結果、撮像部11が予め設定されたエリアから撮像画像を得ているかどうかに応じて、画像処理部12を適切に動作させることができる。
 この実施形態の一例において、制御部20は、撮像部11からの撮像画像に対して実行したエッジ抽出処理の結果である第1処理結果と、上記エリアから予め得られた撮像画像に対して予め実行したエッジ抽出処理の結果である第2処理結果とを比較するように構成される。また、制御部20は、第1処理結果と第2処理結果から得られる差違が所定範囲内であれば第1動作条件に従って画像処理部12を動作させる一方、その差違が所定範囲外であれば第2動作条件に従って画像処理部12を動作させるように構成される。
 上記実施形態の別例において、第1動作条件は、撮像部11からの複数の撮像画像から、動画像又は1つの静止画像としての処理画像を生成するための条件を含む。第2動作条件は、撮像部11からの複数の撮像画像から、複数のサムネイル画像を含む1つの静止画像としての処理画像、又は複数の撮像画像の各画素数を減らして得られる動画像としての処理画像を生成するための条件を含む。第2動作条件は、撮像部11からの撮像画像が上記エリアから得られるべき撮像画像とは異なる環境下の撮像画像であることを示す情報(例えばメッセージ)を処理画像に追加するための条件を更に含んでもよい。この場合、第2動作条件は、撮像部11からの複数の撮像画像から1つの静止画像としての処理画像を生成し、その処理画像に上記情報を追加するための条件を含んでもよい。
 本発明は、画像伝送装置1に限らず、本明細書の種々の実施形態を適用可能な画像伝送方法またはプログラムでもよい。
 一実施形態の画像伝送方法は、画像伝送装置1(詳しくは制御部10)によって実行される。画像伝送装置1は、撮像部11、画像処理部12、伝送部13および記憶部14を備える。撮像部11は、画像を撮像するように構成される。画像処理部12は、撮像部11で撮像された画像の画像処理を行うように構成される。伝送部13は、画像処理で得られた画像を伝送路を介して1乃至複数の画像表示装置2に伝送するように構成される。記憶部14は、画像処理部12の複数通りの動作条件を記憶するように構成される。本実施形態の画像伝送方法は、記憶部14が記憶している複数通りの動作条件のうち、撮像部11で撮像された画像に対応した動作条件を選択すること、および選択した動作条件で画像処理部12を動作させることを含む。
 一実施形態のプログラムは、コンピュータを、画像伝送装置1の制御部10として機能させる。画像伝送装置1は、撮像部11、画像処理部12、伝送部13および記憶部14を備える。撮像部11は、画像を撮像するように構成される。画像処理部12は、撮像部11で撮像された画像の画像処理を行うように構成される。伝送部13は、画像処理で得られた画像を伝送路を介して1乃至複数の画像表示装置2に伝送するように構成される。記憶部14は、画像処理部12の複数通りの動作条件を記憶するように構成される。本実施形態のプログラムは、コンピュータを、記憶部14が記憶している複数通りの動作条件のうち、撮像部11で撮像された画像に対応した動作条件を選択し、且つ選択した動作条件で画像処理部12を動作させるように構成される制御部10として機能させる。
 上記の最良の形態および/または他の実施例であると考えられるものについて説明したが、種々の改変がなされてもよく、本明細書で開示される主題は種々の形態および実施例で実施されてもよく、そしてそれらは多数のアプリケーションに適用されてもよいものであり、その最適の幾つかが本明細書に記載されている。以下の特許請求の範囲によって、本教示の真の範囲内に入る任意およびすべての修正および変形を請求するものである。

Claims (11)

  1.  画像を撮像するように構成される撮像部と、
     前記撮像部で撮像された画像の画像処理を行うように構成される画像処理部と、
     前記画像処理で得られた画像を伝送路を介して1乃至複数の画像表示装置に伝送するように構成される伝送部と、
     前記画像処理部の複数通りの動作条件を記憶するように構成される記憶部と、
     前記記憶部が記憶している前記複数通りの動作条件のうち、前記撮像部で撮像された画像に対応した動作条件を選択し、且つ選択した前記動作条件で前記画像処理部を動作させるように構成される制御部と
     を備えることを特徴とする画像伝送装置。
  2.  前記撮像部は、所定のフレームレートで画像を撮像するように構成され、
     前記画像処理部は、前記撮像部から得られる画像が時系列で変化する度合を求め、且つ前記撮像部から得られる複数の画像のうち、1乃至複数フレームの画像を選択して圧縮するように構成され、
     前記制御部は、前記記憶部が記憶している前記複数通りの動作条件のうち、前記度合に対応した動作条件を選択し、前記画像処理部をその選択した動作条件で動作させ、前記動作条件に含まれる画素数とフレーム数とフレーム間隔と圧縮仕様に対応した1乃至複数フレームの画像を前記伝送部から前記画像表示装置へ伝送するように構成される
     ことを特徴とする請求項1記載の画像伝送装置。
  3.  前記制御部は、
     前記度合がしきい値を超える状態が所定時間以上継続した場合に所定の動作条件を選択し、
     前記所定の動作条件で前記画像処理部を動作させて、複数フレームの画像を縮小し、
     且つ当該縮小した複数フレームのサムネイル画像を縦横に並べて1フレームとした合成画像を生成し、
     前記合成画像を前記伝送部から前記画像表示装置へ伝送する
    ように構成されることを特徴とする請求項2記載の画像伝送装置。
  4.  前記画像処理部は、前記合成画像の画素数が、縮小前の前記複数フレームの画像の各画素数と同一の画素数になるように、前記合成画像を生成するように構成されることを特徴とする請求項3記載の画像伝送装置。
  5.  前記制御部は、
     前記度合がしきい値を超える状態が所定時間以上継続した場合に所定の動作条件を選択し、
     前記所定の動作条件で前記画像処理部を動作させて1フレームの画像を選択し、
     選択した1フレームの画像を前記伝送部から前記画像表示装置へ伝送するように構成されることを特徴とする請求項2記載の画像伝送装置。
  6.  前記制御部は、
     前記画像中の所定数以上の画素における前記度合が所定のしきい値を超える場合に所定の動作条件を選択し、
     前記所定の動作条件で前記画像処理部を動作させて1フレームの画像を選択し、選択した1フレームの画像を前記伝送部から前記画像表示装置へ伝送するように構成されることを特徴とする請求項2記載の画像伝送装置。
  7.  前記画像処理部は、前記所定の動作条件で動作する場合、前記画像を縮小したサムネイル画像を生成するように構成され、
     前記制御部は、前記サムネイル画像を前記伝送部から前記画像表示部へ送信するように構成されることを特徴とする請求項5又は6記載の画像伝送装置。
  8.  前記画像処理部は、前記所定の動作条件で動作する場合、前記画像を相対的に高い圧縮率で圧縮した画像を生成するように構成され、
     前記制御部は、前記圧縮された画像を前記伝送部から前記画像表示装置へ送信するように構成されることを特徴とする請求項5又は6記載の画像伝送装置。
  9.  前記制御部は、前記画像の特定の領域における前記度合が、前記特定の領域を除く他の領域における前記度合よりも大きい場合に所定の動作条件を選択するように構成され、
     前記画像処理部は、
     前記所定の動作条件で動作する場合、前記特定の領域と、前記画像の中心との距離が極小となる1フレームの画像を選択し、
     選択された1フレームの画像を前記伝送部から前記画像表示装置へ伝送するように構成されることを特徴とする請求項2記載の画像伝送装置。
  10.  前記撮像部は、所定のフレームレートで画像を撮像して撮像画像を得るように構成され、
     前記画像処理部は、前記撮像画像の画像処理を行って処理画像を生成するように構成され、
     前記伝送部は、前記伝送路を介して前記1乃至複数の画像表示装置に前記処理画像を伝送するように構成され、
     前記記憶部は、予め設定されたエリアから得られた撮像画像の画像処理用の第1動作条件と、前記エリアから得られるべき撮像画像とは異なる環境下の撮像画像の画像処理用の第2動作条件とを少なくとも記憶するように構成され、
     前記制御部は、
      前記撮像部からの撮像画像を、前記エリアから予め得られた撮像画像と比較することにより、前記撮像部からの撮像画像が前記エリアから得られた撮像画像であるか前記エリアから得られるべき撮像画像とは異なる環境下の撮像画像であるかを判定し、
      前記撮像部からの撮像画像が前記エリアから得られた撮像画像である場合には前記記憶部に記憶された前記第1動作条件に従って前記画像処理部を動作させる一方、前記撮像部からの撮像画像が前記エリアから得られるべき撮像画像とは異なる環境下の撮像画像である場合には前記記憶部に記憶された前記第2動作条件に従って前記画像処理部を動作させる
     ように構成される
    ことを特徴とする請求項1記載の画像伝送装置。
  11.  請求項1~10の何れかの画像伝送装置と、伝送路を介して前記画像伝送装置に接続される1乃至複数の画像表示装置とを備え、
     前記画像表示装置は、第2の伝送部と、表示部とを備え、前記伝送路を介して前記画像伝送装置から伝送される前記画像を前記第2の伝送部で受信し、前記第2の伝送部で受信する前記画像を前記表示部で表示するように構成される
     ことを特徴とする画像伝送システム。
PCT/JP2015/000649 2014-02-21 2015-02-13 画像伝送装置及び画像伝送システム WO2015125441A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP15751692.3A EP3110143A1 (en) 2014-02-21 2015-02-13 Image transmission device and image transmission system
JP2016503963A JPWO2015125441A1 (ja) 2014-02-21 2015-02-13 画像伝送装置及び画像伝送システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014031985 2014-02-21
JP2014-031985 2014-02-21

Publications (1)

Publication Number Publication Date
WO2015125441A1 true WO2015125441A1 (ja) 2015-08-27

Family

ID=53877965

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/000649 WO2015125441A1 (ja) 2014-02-21 2015-02-13 画像伝送装置及び画像伝送システム

Country Status (3)

Country Link
EP (1) EP3110143A1 (ja)
JP (1) JPWO2015125441A1 (ja)
WO (1) WO2015125441A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10171777B2 (en) 2015-12-31 2019-01-01 Amazon Technologies, Inc. Streaming and storing video content captured by an audio/video recording and communication device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866457B (zh) * 2020-07-14 2022-07-12 广州市宏视电子技术有限公司 监控图像处理方法、电子设备、存储介质及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08181975A (ja) * 1994-12-22 1996-07-12 Mitsubishi Denki Eng Kk 画像監視装置
JP2000184367A (ja) * 1998-12-14 2000-06-30 Olympus Optical Co Ltd カメラ制御装置及び記録媒体
JP2004056655A (ja) * 2002-07-23 2004-02-19 Sony Corp 信号処理システムと信号処理方法と信号処理プログラムおよび撮像装置とコンテンツ提示装置
JP2006109251A (ja) * 2004-10-07 2006-04-20 Victor Co Of Japan Ltd 画像認証方法及び画像認証装置
JP2010288230A (ja) * 2009-06-15 2010-12-24 Tokai Paudekkusu:Kk 動画情報中継システム、及び動画情報中継プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100390672B1 (ko) * 2000-12-01 2003-07-07 (주)아이디스 영상 압축 장치 및 방법
JP4831017B2 (ja) * 2007-08-27 2011-12-07 ソニー株式会社 画像処理装置、現像装置、画像処理方法、現像方法、画像処理プログラム、および現像プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08181975A (ja) * 1994-12-22 1996-07-12 Mitsubishi Denki Eng Kk 画像監視装置
JP2000184367A (ja) * 1998-12-14 2000-06-30 Olympus Optical Co Ltd カメラ制御装置及び記録媒体
JP2004056655A (ja) * 2002-07-23 2004-02-19 Sony Corp 信号処理システムと信号処理方法と信号処理プログラムおよび撮像装置とコンテンツ提示装置
JP2006109251A (ja) * 2004-10-07 2006-04-20 Victor Co Of Japan Ltd 画像認証方法及び画像認証装置
JP2010288230A (ja) * 2009-06-15 2010-12-24 Tokai Paudekkusu:Kk 動画情報中継システム、及び動画情報中継プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3110143A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10171777B2 (en) 2015-12-31 2019-01-01 Amazon Technologies, Inc. Streaming and storing video content captured by an audio/video recording and communication device

Also Published As

Publication number Publication date
JPWO2015125441A1 (ja) 2017-03-30
EP3110143A4 (en) 2016-12-28
EP3110143A1 (en) 2016-12-28

Similar Documents

Publication Publication Date Title
US10454986B2 (en) Video synchronous playback method, apparatus, and system
JP6175587B2 (ja) 撮像装置、フリッカ検出方法、及びフリッカ検出プログラム
US10574991B2 (en) Apparatus and method for processing image
JP2017524284A (ja) 動画像出力可能な監視カメラ及びその監視カメラを含む動画像送受信システム
WO2015125441A1 (ja) 画像伝送装置及び画像伝送システム
JP6809114B2 (ja) 情報処理装置、画像処理システム、プログラム
US9948903B2 (en) Method for configuration of video stream output from a digital video camera
US11295589B2 (en) Image processing device and method for simultaneously transmitting a plurality of pieces of image data obtained from a plurality of camera modules
KR101077777B1 (ko) 네트워크 카메라 시스템, 그의 영상 데이터 처리 방법 및 그의 운용 방법
KR101020670B1 (ko) 원격테스트 기능을 구비한 방범 시스템
KR20160104988A (ko) 경찰청 영상 관제 시스템
KR101278562B1 (ko) 세대 보안 현관카메라를 이용한 홈 네트워크 시스템
CN111782876A (zh) 一种数据处理方法、装置、系统及存储介质
US20230056104A1 (en) Modification of Camera Functionality Based on Orientation
JP4325596B2 (ja) ネットワーク監視カメラシステム
KR101431115B1 (ko) 휴대용 단말기를 이용한 감시 장치
EP3070598A1 (en) Image processing system and method
JP2005328333A (ja) 監視システム
US20120019672A1 (en) Internet protocol camera for visual monitoring system
JP2016021716A (ja) 追尾装置及びその制御方法
TWM495585U (zh) 居家保全影像監控系統
JP3061430U (ja) 遠隔監視セキュリティシステム
JP2005033649A (ja) 監視回路,監視カメラおよび監視システム
JP2010233178A (ja) 画像処理システム
JP2015159360A (ja) 画像伝送装置及び画像伝送システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15751692

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016503963

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015751692

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015751692

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE