WO2018101533A1 - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
WO2018101533A1
WO2018101533A1 PCT/KR2016/015484 KR2016015484W WO2018101533A1 WO 2018101533 A1 WO2018101533 A1 WO 2018101533A1 KR 2016015484 W KR2016015484 W KR 2016015484W WO 2018101533 A1 WO2018101533 A1 WO 2018101533A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
line
pixel
pixels
processor
Prior art date
Application number
PCT/KR2016/015484
Other languages
English (en)
French (fr)
Inventor
박선애
Original Assignee
한화테크윈주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈주식회사 filed Critical 한화테크윈주식회사
Priority to EP16922826.9A priority Critical patent/EP3550505A4/en
Priority to US16/465,427 priority patent/US10805527B2/en
Priority to CN201680091313.XA priority patent/CN110023987B/zh
Publication of WO2018101533A1 publication Critical patent/WO2018101533A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/083Network architectures or network communication protocols for network security for authentication of entities using passwords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0876Network architectures or network communication protocols for network security for authentication of entities based on the identity of the terminal or configuration, e.g. MAC address, hardware or software configuration or device fingerprint
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to an image processing apparatus and method.
  • surveillance cameras have been increasingly installed in buildings, exteriors, and streets for various purposes such as security and security.
  • a surveillance camera may be connected to a server through a network by wire or wirelessly, and the server may simultaneously control a plurality of connected surveillance cameras.
  • An image processing apparatus such as a surveillance camera or a server may capture and store an image, and the captured and stored image may be confirmed through a monitor.
  • a mask may be required such that a specific area of an image is not displayed on a monitor or the like.
  • the surveillance camera may generate a mask for displaying on an image through image processing.
  • An object of the present invention is to provide an image processing technique for restoring a privacy-protected image without loss.
  • the communication interface for receiving the original image from the camera; Determine a mask area of the original image, extract a turning point between a series of pixels inside the mask area, and based on the turning point, the first pixel value of the first pixel set and the second pixel value of the second pixel set.
  • a processor for inverting and generating a masked image; And a memory storing information about the masked image and the turning point, wherein the turning point may be one or more, and the series of pixels includes the first pixel set and the second pixel set in order. .
  • the communication interface receives a user input specifying the mask area, and the processor may determine the mask area based on the user input.
  • the processor may recognize an object from the original image and determine the mask area based on the object.
  • the mask area may include a plurality of pixels arranged in a matrix, and the processor may rearrange the plurality of pixels to generate the series of pixels.
  • the mask area may include a plurality of lines, each of the plurality of lines including the series of pixels, and the number and positions of the turning points of each of the plurality of lines may be independent of each other.
  • the plurality of lines may be at least one of a horizontal line, a vertical line, and an oblique line.
  • the plurality of lines includes a first line and a second line
  • the processor inverts the third pixel value of the first line and the fourth pixel value of the second line to perform the masked processing.
  • An image can be generated.
  • the third pixel value is a pixel value of a third pixel set which is a partial pixel set of the first line
  • the fourth pixel value is a pixel of a fourth pixel set which is a partial pixel set of the second line.
  • the communication interface receives an image request from a user terminal, transmits the masked image to the user terminal, and the processor succeeds in user authentication based on user authentication information included in the image request.
  • the processor succeeds in user authentication based on user authentication information included in the image request.
  • information about the switch point may be additionally transmitted to the user terminal through the communication interface.
  • An image processing apparatus includes a communication interface for transmitting an image request to a video recorder and receiving masked image and private key information from the video recorder; Extracting a turning point from the private key information, extracting a mask region from the masked image, extracting a series of pixels sequentially including a first pixel set and a second pixel set from the mask region, and extracting the turning point.
  • a processor configured to generate a reconstructed image by inverting a first pixel value of the first pixel set and a second pixel value of the second pixel set as a reference; And a display for displaying the masked image or displaying the reconstructed image on a screen.
  • the video request may include at least one of user authentication information and terminal authentication information.
  • the processor may reconstruct the mask area by rearranging a series of pixels whose pixel values are inverted in a matrix form.
  • the mask area includes a plurality of lines including a first line and a second line
  • the processor is configured to adjust the third pixel value of the first line and the fourth pixel value of the second line.
  • the inverted image may be generated by inverting.
  • the third pixel value is a pixel value of a third pixel set which is a partial pixel set of the first line
  • the fourth pixel value is a pixel of a fourth pixel set which is a partial pixel set of the second line.
  • An image processing method includes: receiving an original image from a camera by a communication interface; Determining, by a processor, a mask area of the original image; Extracting, by the processor, a turning point between a series of pixels within the mask area; Generating, by the processor, a masked image by inverting a first pixel value of a first pixel set and a second pixel value of a second pixel set based on the turning point; And transmitting, by the communication interface, the masked image to a user terminal, wherein the series of pixels includes the first pixel set and the second pixel set in order.
  • the method may further include receiving, by the communication interface, a user input for designating the mask area, and determining the mask area may include determining the mask area based on the user input. It may be a step.
  • the method may further include, by the processor, recognizing an object from the original image.
  • the determining of the mask area may include determining the mask area based on the object.
  • the mask area may include a plurality of pixels arranged in a matrix
  • the processor may further include rearranging the plurality of pixels to generate the series of pixels.
  • the step of receiving a video request from the user terminal by the communication interface Determining, by the processor, whether authentication is successful based on the video request; And only when the authentication is successful, transmitting, by the communication interface, information on the switch point to the user terminal.
  • the video request may include at least one of user authentication information and terminal authentication information
  • the authentication may include at least one of user authentication and terminal authentication.
  • FIG. 1 is a block diagram of a network camera system according to an exemplary embodiment.
  • FIGS. 2A and 2B are diagrams illustrating an image processing apparatus, according to an exemplary embodiment.
  • FIG. 3 is a flowchart illustrating an image processing method, according to an exemplary embodiment.
  • FIG. 4 is a diagram for describing a mask area, according to an exemplary embodiment.
  • 5A and 5B are flowcharts illustrating a method of determining a mask area according to example embodiments.
  • 6A through 6D are diagrams for describing a mask processing method, according to example embodiments.
  • FIG. 7 is a diagram for describing a masked image, according to an exemplary embodiment.
  • An image processing apparatus may include a communication interface for receiving an original image from a camera, determining a mask region of the original image, extracting a turning point between a series of pixels inside the mask region, and A processor for generating a masked image by inverting a first pixel value of a first pixel set and a second pixel value of a second pixel set based on a turning point, and storing information about the masked image and the turning point And a memory, wherein the turning point may be one or more, and the series of pixels includes the first set of pixels and the second set of pixels in order.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
  • Embodiments of the present invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware and / or software configurations that perform particular functions. For example, embodiments of the invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented in software programming or software elements, embodiments of the present invention include various algorithms implemented in combinations of data structures, processes, routines or other programming constructs. It may be implemented in a programming or scripting language such as C, C ++, Java, assembler, or the like.
  • inventions may be implemented with an algorithm running on one or more processors.
  • embodiments of the present invention may employ the prior art for electronic configuration, signal processing, and / or data processing.
  • Terms such as mechanism, element, means, configuration can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
  • FIG. 1 is a block diagram of a network camera system according to an exemplary embodiment.
  • a network camera system 1 includes a camera 10, a video recorder 20, a network 30, a server 40, and a user terminal 50.
  • the camera 10 captures a surveillance area to obtain an original image of the surveillance area.
  • the camera 10 may capture a surveillance area in real time for the purpose of surveillance or security.
  • the camera 10 may be a PTZ camera that is capable of panning and tilting and whose zoom magnification of the lens is adjustable.
  • One or more cameras 10 may be provided.
  • the network camera system 1 may include the first cameras 11 to n-th cameras 1n.
  • the camera 10 may be a low power camera driven by a battery.
  • the low power camera maintains its normal sleep mode and periodically checks to see if an event has occurred.
  • the low power camera enters the active mode when an event occurs, and returns to the sleep mode when the event does not occur. As such, the low power camera may reduce power consumption by maintaining the active mode only when an event occurs.
  • the camera 10 may communicate with a network device using various communication methods such as a wired / wireless LAN, Wi-Fi, ZigBee, Bluetooth, and Near Field Communication. have.
  • the cameras 10 may communicate with each other according to a low power wireless communication protocol using a radio frequency of an Industrial Scientific Medical band (ISM band).
  • ISM band Industrial Scientific Medical band
  • the video recorder 20 records the original image received from the camera 10 and provides the recorded original image to the server 40 or the user terminal 50 through the network 30.
  • the video recorder 20 may mask the original image and provide the masked image to the server 40 or the user terminal 50 through the network 30. In this case, the video recorder 20 may additionally provide private key information on the masked image to the server 40 or the user terminal 50. The video recorder 20 may provide private key information only to the user terminal 50 that has been successfully authenticated.
  • the video recorder 20 may provide the masked image to the user terminal 50 and provide the private key information to the server 40.
  • the user terminal 50 may receive private key information on the masked image from the server 40.
  • the server 40 may provide private key information only to the user terminal 50 that has been successfully authenticated.
  • the video recorder 20 may be a digital video recorder, a network video recorder, or the like, but is not limited thereto.
  • the network 30 may comprise a wired network or a wireless network.
  • the wireless network may be 2G (Generation) or 3G cellular communication system, 3rd Generation Partnership Project (3GPP), 4G communication system, Long-Term Evolution (LTE), World Interoperability for Microwave Access (WiMAX), or the like.
  • the server 40 may transmit at least one of an original image, a masked image, and private key information received from the video recorder 20 through the network 30 to the user terminal 50.
  • the server 40 may periodically receive at least one of an original image, a masked image, and private key information from the video recorder 20.
  • the server 40 may periodically transmit at least one of an original image, a masked image, and private key information to the user terminal 50.
  • the server 40 may transmit at least one of an original image, a masked image, and private key information to the user terminal 50 in response to a user input for requesting an image.
  • the user terminal 50 may display or store an original image or a masked image received from the video recorder 20 or the server 40.
  • the successful user terminal 50 may restore the masked image using the private key information received from the video recorder 20 or the server 40.
  • FIGS. 2A and 2B are schematic diagrams of an image processing apparatus according to example embodiments.
  • the first image processing apparatus 100 includes a first communication interface 110, a first processor 130, and a first memory 150.
  • the first communication interface 110 receives an original image from the camera 10.
  • the first communication interface 110 may receive a user input for designating a mask area from an external device.
  • the external device may be controlled by the operator or manager who wants to supply the privacy-protected image to the user terminal 50 or the like.
  • the user input for designating the mask area may be a user input for selecting coordinates of the mask area, or may be a user input for designating an object.
  • the first communication interface 110 may receive an image request from the user terminal 50 and transmit a masked image to the user terminal 50.
  • the video request may include at least one of user authentication information and terminal authentication information.
  • the user authentication information may include at least one of user identification information and a user password.
  • the terminal authentication information may include at least one of terminal identification information and terminal password.
  • the masked image refers to an image processed so that the mask area of the original image is not recognizable.
  • the first processor 130 determines a mask area of the original image, extracts a switched point between a series of pixels within the mask area, and extracts a first pixel value and a first pixel value of the first pixel set based on the switch point.
  • the second pixel value of the two pixel set is inverted to generate a masked image.
  • the first pixel set includes one or more pixels, and the first pixel value represents pixel values of one or more pixels.
  • the second pixel set includes one or more pixels, and the second pixel value represents pixel values of one or more pixels.
  • the first processor 130 may determine the mask area based on a user input that designates the mask area. For example, the first processor 130 may determine the mask area according to the coordinates of the mask area selected by the user input.
  • the first processor 130 may recognize the object from the original image and determine a mask area based on the object.
  • the object may be a face, a vehicle number, or the like.
  • the first processor 130 may recognize a face from the original image, and determine an area where the face is displayed as a mask area.
  • the first processor 130 may recognize the vehicle number from the original image and determine the vehicle license plate area as a mask area.
  • the mask area may include a plurality of pixels arranged in a matrix form, and the first processor 130 may rearrange the plurality of pixels to generate a series of pixels.
  • the first processor 130 may rearrange a plurality of column lines of the matrix into one line to generate a series of pixels.
  • the mask area may include a plurality of lines, each of which includes a series of pixels, and the number and positions of the turning points of each of the plurality of lines may be independent of each other.
  • the first processor 130 extracts a turning point between a series of pixels for each of the plurality of lines, and based on the turning point, the first processor value and the second pixel of the second pixel set are extracted. The values can be reversed to generate a masked image.
  • the plurality of lines may be at least one of a horizontal line, a vertical line, and an oblique line.
  • the plurality of lines may all be horizontal, vertical, or diagonal.
  • the plurality of lines may include at least one of a horizontal line, a vertical line, and an oblique line.
  • the plurality of lines may include a first line and a second line, and the first processor 130 may generate a masked image by inverting the third pixel value of the first line and the fourth pixel value of the second line. have.
  • the first processor 130 extracts the turning point with respect to the first line, inverts the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point, and converts the converted point.
  • the first line may be generated.
  • the first processor 130 extracts the turning point with respect to the second line, inverts the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point, and converts the converted point.
  • a second line can be generated.
  • the first processor 130 may generate a masked image by inverting all the pixel values of the converted first line with all the pixel values of the converted second line.
  • the third pixel value may be a pixel value of the third pixel set, which is a partial pixel set of the first line
  • the fourth pixel value may be a pixel value of the fourth pixel set, which is a partial pixel set of the second line.
  • the third pixel set and the fourth pixel set may each include one or more pixels.
  • the first processor 130 extracts the turning point with respect to the first line and converts the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point. You can create one line. The first processor 130 extracts the turning point with respect to the second line and converts the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the switching point. You can create two lines. The first processor 130 may invert the third pixel value of the third pixel set of the converted first line and the third pixel value of the third pixel set of the converted second line to mask the image. Can be generated.
  • the first processor 130 may use the first communication interface 110 only when the user authentication is successful based on the user authentication information included in the video request or when the terminal authentication is successful based on the terminal authentication information included in the video request.
  • Information about the switch point may be further transmitted to the user terminal 50.
  • the information about the turning point indicates information necessary for reconstructing the masked image.
  • the first processor 130 may determine whether the user indicated by the user identification information is a user who is entitled to reconstruct the masked image based on the user identification information included in the image request. The first processor 130 may confirm that the user is entitled to restore the masked image based on the user identification information and the user password included in the image request.
  • the first processor 130 may determine whether the terminal indicated by the terminal identification information is a terminal permitted to restore the masked image based on the terminal identification information included in the image request. The first processor 130 may determine that the terminal is allowed to restore the masked image based on the terminal identification information and the terminal password included in the image request.
  • the masked image and the private key information are transmitted only to the user terminal 50 that has been successfully authenticated, and only the masked image is transmitted to the user terminal 50 that has failed authentication, thereby protecting privacy. Restoration of the processed image can be limited, thereby further enhancing security.
  • the first memory 150 stores information about the masked image and the turning point.
  • the first memory 150 may further store the original image.
  • the first memory 150 may be a line memory that stores the original image in the input order. That is, the matrix original image may be stored in the first memory 150 in order from the first row to the last row, and each row may be stored in the first memory 150 in order from the first column to the last column.
  • the first processor 130 may generate and store the masked image in the first memory 150 by inverting and storing pixel values of the original image stored in the first memory 150 based on the turning point. have. In this case, the first processor 130 may match the masked image with the information about the turning point and store the same in the first memory 150.
  • the first image processing apparatus 100 may be implemented as one physical device or a plurality of physical devices may be organically combined.
  • the first image processing apparatus 100 may be implemented as a video recorder 20 or a server 40.
  • a part of the first image processing apparatus 100 may be implemented as the video recorder 20 and a part of the first image processing apparatus 100 as the server 40.
  • the first image processing apparatus 200 may be implemented as part of the user terminal 50.
  • the second image processing apparatus 200 includes a user interface 210, a second communication interface 230, a second processor 250, a second memory 270, and a display 290. do.
  • the user interface 210 receives a user input.
  • the user input received by the user interface 210 may include at least one of user authentication information and terminal authentication information.
  • the second communication interface 230 transmits an image request to the video recorder 20 and receives masked image and private key information from the video recorder 20.
  • the video request may include at least one of user authentication information and terminal authentication information.
  • the second processor 250 may restore the mask area of the masked image by performing the mask processing performed by the first processor 130 on the masked image in reverse.
  • the second processor 250 extracts the turning point from the private key information, extracts the mask region from the masked image, extracts a series of pixels including the first pixel set and the second pixel set in order from the mask region.
  • the reconstructed image is generated by inverting the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point.
  • the second processor 250 may reconstruct the mask area by rearranging the series of inverted pixel values in a matrix form. For example, the second processor 250 may split one line composed of a series of pixels whose pixel values are inverted into n lines each including m pixels. Subsequently, the second processor 250 may reconstruct the separated n lines in order to restore a mask area having an m ⁇ n matrix form.
  • the mask area may include a plurality of lines, and each of the plurality of lines may include a series of pixels, and the number and positions of the turning points of each of the plurality of lines may be independent of each other.
  • the second processor 250 extracts a turning point from the private key information for each of the plurality of lines, and calculates a first pixel value of the first pixel set and a second pixel value of the second pixel set based on the turning point. Invert it to create a reconstructed image.
  • the plurality of lines may include a first line and a second line, and the second processor 250 may generate a reconstructed image by inverting the third pixel value of the first line and the fourth pixel value of the second line.
  • the second processor 250 extracts the turning point with respect to the first line, inverts the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point, and converts the converted point.
  • the first line may be generated.
  • the second processor 250 extracts the turning point with respect to the second line, inverts the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point, and converts the converted point.
  • a second line can be generated.
  • the second processor 250 may generate a reconstructed image by inverting all of the converted pixel values of the first line with all of the converted second pixel values.
  • the third pixel value may be a pixel value of the third pixel set, which is a partial pixel set of the first line
  • the fourth pixel value may be a pixel value of the fourth pixel set, which is a partial pixel set of the second line.
  • the second processor 250 extracts the turning point with respect to the first line, inverts the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point, and converts the converted point.
  • the first line may be generated.
  • the second processor 250 extracts the turning point with respect to the second line, inverts the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point, and converts the converted point.
  • a second line can be generated.
  • the second processor 250 generates a reconstructed image by inverting the third pixel value of the third pixel set of the converted first line and the third pixel value of the third pixel set of the converted second line. can do.
  • the second memory 270 stores a masked image, private key information, a restored image, and the like.
  • the second memory 270 may be a line memory that stores the masked image in the input order. That is, the masked image in matrix form may be stored in the second memory 270 in the order of the first row to the last row, and each row may be stored in the second memory 270 in the order of the first column to the last column. .
  • the second processor 250 may generate a restored image and store the restored image in the second memory 270 by inverting and storing pixel values of the masked image stored in the second memory 270 based on the turning point. have. In this case, the second processor 250 may match the masked image and the reconstructed image to each other and store them in the second memory 270.
  • the display 290 displays a masked image or a restored image on the screen.
  • the second image processing apparatus 200 may be implemented as one physical device or a plurality of physical devices may be organically combined.
  • the second image processing apparatus 200 may be implemented as a user terminal 50.
  • the second image processing apparatus 200 may be partially implemented as the user terminal 50 and the other as the video recorder 20 or the server 40.
  • FIG. 3 is a flowchart illustrating an image processing method, according to an exemplary embodiment.
  • the camera 10 captures a surveillance area (S110).
  • the camera 10 may generate an original image by photographing the surveillance area.
  • the video recorder 20 receives an original image from the camera 10 (S120).
  • the video recorder 20 may receive, from the camera 10, the photographing time, the event information, and the camera identification information of the original image together with the original image.
  • the video recorder 20 determines a mask area of the original image (S130).
  • the video recorder 20 may mask all original images received from the camera 10.
  • the video recorder 20 may determine whether to mask the original image based on the recording time of the original image received from the camera 10. For example, the video recorder 20 may generate a mask image only for the original image photographed at a predetermined time. For example, the video recorder 20 may generate a mask image with respect to the original image photographed at a time other than a predetermined time.
  • the video recorder 20 may determine whether to mask the original image based on the information about the event received from the camera 10. For example, the video recorder 20 may generate a mask image only for the original image photographed in response to a predetermined event. For example, the video recorder 20 may generate a mask image with respect to the original image photographed in response to an event except for a predetermined event.
  • the video recorder 20 may determine whether to mask the original image based on the recording time of the original image received from the camera 10. For example, the video recorder 20 may generate a mask image only for the original image photographed at a predetermined time. For example, the video recorder 20 may generate a mask image with respect to the original image photographed at a time other than a predetermined time.
  • the video recorder 20 may determine whether to mask the original image based on the camera identification information received from the camera 10. For example, the video recorder 20 may generate a mask image only for the original image received from the first camera 11 installed in a predetermined region.
  • the video recorder 20 may determine all of the original image as the mask area. For example, the video recorder 20 may mask all original images photographed in response to a predetermined event. For example, the video recorder 20 may mask all original images received from the first camera 11 installed in a predetermined region. For example, the video recorder 20 may mask all the original images photographed at a predetermined time.
  • the video recorder 20 may determine a portion of the original image as the mask area.
  • a part of the original image is determined as the mask area will be described with reference to FIG. 4.
  • FIG. 4 is a diagram for describing a mask area, according to an exemplary embodiment.
  • the video recorder 20 may determine a portion of the original image OI received from the camera 10 as the mask area MA.
  • the shape of the mask area MA may be a shape of a closed curve having various shapes such as a rectangle, a polygon other than a rectangle, a circle, and an outline of an object as shown in FIG. 4.
  • 5A and 5B are flowcharts illustrating a method of determining a mask area according to example embodiments.
  • the video recorder 20 receives a user input for designating a mask area (S131).
  • the user input for designating the mask area may be a user input for selecting coordinates of four vertices of the mask area MA.
  • the user input for designating a mask area may be a user input for selecting four vertices, or a user input for selecting one vertex and another vertex positioned diagonally, respectively.
  • the user input for designating the mask area may be a user input for selecting any point inside the mask area MA.
  • the user input for designating a mask area may be a user input for selecting a predetermined object.
  • the video recorder 20 determines a mask area based on a user input in operation S133.
  • the video recorder 20 may determine a mask area MA located at the coordinates of the four vertices, based on a user input of selecting the coordinates of the four vertices.
  • the video recorder 20 may determine a mask area MA having a predetermined area based on any point selected by the user input based on a user input for selecting any point inside the mask area MA. For example, the video recorder 20 may determine a mask area MA having an area covering the predetermined face, based on a user input for selecting the predetermined face.
  • the video recorder 20 recognizes an object from an original image (S132).
  • the video recorder 20 may recognize one or more faces or one or more vehicle numbers from the original image.
  • the video recorder 20 may recognize one or more predetermined faces or one or more predetermined vehicle numbers from the original image.
  • One or more predetermined faces may refer to specific people.
  • One or more predetermined vehicle numbers may refer to vehicle numbers registered in a predetermined region, vehicle numbers including a predetermined number, and the like.
  • the video recorder 20 determines a mask area based on the recognized object (S134).
  • the video recorder 20 may determine a mask area MA having an area covering the face. For example, the video recorder 20 may determine one or more mask areas MA covering each of the one or more faces displayed in the original image. For example, the video recorder 20 may determine one or more mask areas MA that cover each of the ones or more faces displayed on the original image without glasses.
  • the video recorder 20 may determine the vehicle license plate area as the mask area MA. For example, the video recorder 20 may determine one or more vehicle license plate areas displayed on the original image as the mask area MA. For example, the video recorder 20 may determine, as the mask area MA, a vehicle license plate area that does not include a predetermined number of one or more license plate areas displayed on the original image.
  • the video recorder 20 extracts a turning point between a series of pixels inside the mask area (S140).
  • the series of pixels includes the first pixel set and the second pixel set in order.
  • the video recorder 20 generates a masked image by inverting the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point (S150).
  • 6A through 6D are diagrams for describing a mask processing method, according to example embodiments.
  • the first line L1 in the mask area MA of the original image OI may include a series of pixels having pixel values of 0 to 9. That is, the series of pixels of the first line L1 sequentially include the first pixel set P1 having the first pixel values 0 through 3 and the second pixel set P2 having the second pixel values 4 through 9. can do.
  • the video recorder 20 may extract the first turning point H1 between a series of pixels constituting the first line L1 in the mask area MA of the original image OI.
  • the video recorder 20 masks the first pixel values 0 through 3 of the first pixel set P1 and the second pixel values 4 through 9 of the second pixel set P2 based on the first turning point H1.
  • the processed image may be generated.
  • the converted first line L1 ′ in the mask area MA of the masked image MI may include a series of pixels having pixel values of 4 to 9 and 0 to 3.
  • the first line L1 and the second line L2 in the mask area MA of the original image OI may each include a series of pixels having pixel values of 0 to 9, respectively. It may include. That is, the series of pixels of the first line L1 include the first pixel set P11 having the first pixel values 0 to 3 and the second pixel set P12 having the second pixel values 4 to 9 in order. can do.
  • the series of pixels of the second line L2 may include the first pixel set P21 having the first pixel values 0 to 4 and the second pixel set P22 having the second pixel values 5 to 9 in order. have.
  • the video recorder 20 extracts the first switch point H1 with respect to the first line L1 line, and first pixel values 0 to 3 of the first pixel set P11 based on the first switch point H1. And the second pixel values 4 through 9 of the second pixel set P12 may be reversed to generate a first-order transformed first line L1 ′.
  • the video recorder 20 extracts the second turning point H2 with respect to the second line L2, and sets the first pixel value 0 to the first pixel set P21 based on the second turning point H2.
  • the second line L2 ' which is first-converted by inverting 4 and the second pixel values 5 through 9 of the second pixel set P22.
  • the video recorder 20 may convert all of the pixel values 4 to 9 and 0 to 3 of the first transformed first line L1 ′ to the pixel values 5 to 9 and 0 of the first transformed second line L2 ′. Inverted to all 4 to 4, a masked image may be generated.
  • the second transformed first line L1 ′′ within the mask area MA of the masked image MI includes a series of pixels having pixel values of 5 to 9 and 0 to 4,
  • the second transformed second line L2 ′′ in the mask area MA of the masked image MI may include a series of pixels having pixel values of 4 to 9 and 0 to 3.
  • the first line L1 and the second line L2 in the mask area MA of the original image OI may each include a series of pixels having pixel values of 0 to 9, respectively. It may include. That is, the series of pixels of the first line L1 include the first pixel set P11 having the first pixel values 0 to 3 and the second pixel set P12 having the second pixel values 4 to 9 in order. can do.
  • the series of pixels of the second line L2 may include the first pixel set P21 having the first pixel values 0 to 4 and the second pixel set P22 having the second pixel values 5 to 9 in order. have.
  • the video recorder 20 extracts the first switch point H1 with respect to the first line L1 line, and first pixel values 0 to 3 of the first pixel set P11 based on the first switch point H1. And the second pixel values 4 through 9 of the second pixel set P12 may be reversed to generate a first-order transformed first line L1 ′.
  • the video recorder 20 extracts the second turning point H2 with respect to the second line L2, and sets the first pixel value 0 to the first pixel set P21 based on the second turning point H2.
  • the second line L2 ′ that is linearly transformed may be generated by inverting the second pixel values 5 through 9 of the fourth and second pixel sets P22.
  • the video recorder 20 may further include a third pixel between the series of pixels constituting the first transformed first line L1 ′ and the series of pixels constituting the first transformed second line L2 ′.
  • the turning point H3 can be extracted.
  • the video recorder 20 performs a first order conversion with the third pixel values 4 to 9 and 0 of the third pixel set P13 of the first transformed first line L1 ′ based on the third turning point H3.
  • the masked image may be generated by inverting the third pixel values 5 through 9, 0, and 1 of the third pixel set P23 of the second line L2 ′.
  • the second-converted first line L1 '' '' within the mask area MA of the masked image MI has a series of pixel values of 5 to 9, 0, 1, and 1 to 3.
  • the second transformed second line L2 '' 'within the mask area MA of the masked image MI has pixel values of 4 to 9, 0, and 2 to 4 It can include a series of pixels.
  • the mask area MA of the original image OI may include a plurality of pixels arranged in a matrix form.
  • the video recorder 20 may rearrange the plurality of pixels to generate a series of pixels.
  • the video recorder 20 may rearrange the first column lines R1 to eighth column lines R8 of the matrix to the third line L3 to generate a series of pixels.
  • the video recorder 20 may sequentially generate the third line L3 by sequentially arranging the first column line R1 to the eighth column line R8.
  • the series of pixels included in the third line L3 includes the first pixel set P1 having the first pixel values 10 to 26 and the second pixel set P2 having the second pixel values 27 to 87 in order. can do.
  • the video recorder 20 may extract the third turning point H3 between a series of pixels constituting the third line L3 in the mask area MA of the original image OI.
  • the video recorder 20 inverts the first pixel values 10 to 26 of the first pixel set P1 and the second pixel values 27 to 87 of the second pixel set P2 based on the third turning point H3.
  • the processed image may be generated.
  • the converted third line L3 ′ in the mask area MA of the masked image MI may include a series of pixels having pixel values of 27 to 87 and 10 to 26.
  • FIG. 7 is a diagram for describing a masked image, according to an exemplary embodiment.
  • the mask area MA of the masked image MI may be processed so that the corresponding area of the original image OI may not be recognized.
  • the video recorder 20 receives an image request from the user terminal 50 (S160).
  • the video request may include at least one of user authentication information and terminal authentication information.
  • the video recorder 20 transmits the masked image to the user terminal 50 (S170).
  • the video recorder 20 may transmit the masked image to the user terminal 50 in response to the image request.
  • the user terminal 50 displays the masked image on the screen (S180).
  • the network camera system 1 may enhance the security by displaying the privacy protected image through the user terminal 50.
  • the video recorder 20 determines whether authentication is successful based on the video request (S210).
  • the authentication may include at least one of user authentication and terminal authentication.
  • the video recorder 20 transmits the private key information including the information on the turning point to the user terminal 50 (S220).
  • the user terminal 50 extracts a turning point from the private key information (S230), extracts a mask region from the masked image (S240), and sequentially includes a first pixel set and a second pixel set from the mask region.
  • the pixels are extracted (S250), and a reconstructed image is generated by inverting the first pixel value of the first pixel set and the second pixel value of the second pixel set based on the turning point (S260).
  • the user terminal 50 displays the restored image on the screen (S270).
  • the network camera system 1 can restore the privacy-protected image through the user terminal 50 without loss, thereby enhancing user convenience.
  • the network camera system 1 may enhance security by limiting restoration of the privacy-protected image through the user terminal 50.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 일 실시예에 따른 영상 처리 장치는, 카메라로부터 원본 영상을 수신하는 통신 인터페이스; 상기 원본 영상의 마스크 영역을 결정하고, 상기 마스크 영역 내부의 일련의 픽셀들 사이에서 전환점을 추출하고, 상기 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성하는 프로세서; 및 상기 마스크 처리된 영상 및 상기 전환점에 대한 정보를 저장하는 메모리;를 포함하고, 상기 전환점은 하나 이상일 수 있고, 상기 일련의 픽셀들은 상기 제1 픽셀 세트와 상기 제2 픽셀 세트를 순서대로 포함한다.

Description

영상 처리 장치 및 방법
본 발명은 영상 처리 장치 및 방법에 관한 것이다.
최근 들어, 방범, 보안 등 다양한 목적으로 건물 내부나 외부, 길거리 등에 감시 카메라를 설치하는 경우가 증가하고 있다. 이러한 감시 카메라는 유선 또는 무선으로 네트워크를 통하여 서버에 연결될 수 있으며, 서버에서는 연결된 복수의 감시 카메라를 동시에 제어할 수도 있다.
감시 카메라 또는 서버와 같은 영상 처리 장치는 영상을 촬영 및 저장할 수 있으며, 촬영 및 저장된 영상이 모니터 등을 통해 확인될 수 있다. 한편, 프라이버시 보호를 위하여 영상의 특정 영역이 모니터 등에 표시되지 않도록 하는 마스크가 요구되는 경우가 있으므로, 감시 카메라는 영상 처리를 통하여 영상 상에 표시하기 위한 마스크를 생성하기도 한다.
본 발명이 해결하고자 하는 기술적 과제는 프라이버시 보호 처리된 영상을 손실 없이 복원하는 영상 처리 기술을 제공하는데 있다.
본 발명의 일 실시예에 따른 영상 처리 장치는, 카메라로부터 원본 영상을 수신하는 통신 인터페이스; 상기 원본 영상의 마스크 영역을 결정하고, 상기 마스크 영역 내부의 일련의 픽셀들 사이에서 전환점을 추출하고, 상기 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성하는 프로세서; 및 상기 마스크 처리된 영상 및 상기 전환점에 대한 정보를 저장하는 메모리;를 포함하고, 상기 전환점은 하나 이상일 수 있고, 상기 일련의 픽셀들은 상기 제1 픽셀 세트와 상기 제2 픽셀 세트를 순서대로 포함한다.
본 실시예에서, 상기 통신 인터페이스는 상기 마스크 영역을 지정하는 사용자 입력을 수신하고, 상기 프로세서는 상기 사용자 입력에 기초하여 상기 마스크 영역을 결정할 수 있다.
본 실시예에서, 상기 프로세서는 상기 원본 영상으로부터 오브젝트를 인식하고, 상기 오브젝트에 기초하여 상기 마스크 영역을 결정할 수 있다.
본 실시예에서, 상기 마스크 영역은 매트릭스 형태로 배열된 복수의 픽셀들을 포함하고, 상기 프로세서는 상기 복수의 픽셀들을 재배열하여 상기 일련의 픽셀들을 생성할 수 있다.
본 실시예에서, 상기 마스크 영역은 복수의 라인들로 구성되고, 상기 복수의 라인들은 각각 상기 일련의 픽셀들을 포함하고, 상기 복수의 라인들 각각의 전환점의 개수 및 위치는 서로 독립할 수 있다.
본 실시예에서, 상기 복수의 라인들은 수평선, 수직선, 및 사선 중 적어도 하나일 수 있다.
본 실시예에서, 상기 복수의 라인들은 제1 라인 및 제2 라인을 포함하고, 상기 프로세서는 상기 제1 라인의 제3 픽셀 값과 상기 제2 라인의 제4 픽셀 값을 뒤바꾸어 상기 마스크 처리된 영상을 생성할 수 있다.
본 실시예에서, 상기 제3 픽셀 값은 상기 제1 라인의 일부 픽셀 세트인 제3 픽셀 세트의 픽셀 값이고, 상기 제4 픽셀 값은 상기 제2 라인의 일부 픽셀 세트인 제4 픽셀 세트의 픽셀 값일 수 있다.
본 실시예에서, 상기 통신 인터페이스는 사용자 단말로부터 영상 요청을 수신하고, 상기 사용자 단말에 상기 마스크 처리된 영상을 전송하고, 상기 프로세서는 상기 영상 요청에 포함된 사용자 인증 정보에 기초하여 사용자 인증에 성공하거나 상기 영상 요청에 포함된 단말 인증 정보에 기초하여 단말 인증에 성공한 경우에 한하여, 상기 통신 인터페이스를 통해 상기 사용자 단말에 상기 전환점에 대한 정보를 추가로 전송시킬 수 있다.
본 발명의 다른 실시예에 따른 영상 처리 장치는, 비디오 레코더에 영상 요청을 전송하고, 상기 비디오 레코더로부터 마스크 처리된 영상 및 개인 키 정보를 수신하는 통신 인터페이스; 상기 개인 키 정보로부터 전환점을 추출하고, 상기 마스크 처리된 영상으로부터 마스크 영역을 추출하고, 상기 마스크 영역으로부터 제1 픽셀 세트와 제2 픽셀 세트를 순서대로 포함하는 일련의 픽셀들을 추출하고, 상기 전환점을 기준으로 상기 제1 픽셀 세트의 제1 픽셀 값과 상기 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 복원 영상을 생성하는 프로세서; 및 상기 마스크 처리된 영상을 표시하거나 상기 복원 영상을 화면에 표시하는 디스플레이;를 포함한다.
본 실시예에서, 상기 영상 요청은 사용자 인증 정보 및 단말 인증 정보 중 적어도 하나를 포함할 수 있다.
본 실시예에서, 상기 프로세서는 픽셀 값이 뒤바뀐 일련의 픽셀들을 매트릭스 형태로 재배열하여 상기 마스크 영역을 복원할 수 있다.
본 실시예에서, 상기 마스크 영역은 제1 라인 및 제2 라인을 포함하는 복수의 라인들로 구성되고, 상기 프로세서는 상기 제1 라인의 제3 픽셀 값과 상기 제2 라인의 제4 픽셀 값을 뒤바꾸어 상기 복원 영상을 생성할 수 있다.
본 실시예에서, 상기 제3 픽셀 값은 상기 제1 라인의 일부 픽셀 세트인 제3 픽셀 세트의 픽셀 값이고, 상기 제4 픽셀 값은 상기 제2 라인의 일부 픽셀 세트인 제4 픽셀 세트의 픽셀 값일 수 있다.
본 발명의 일 실시예에 따른 영상 처리 방법은, 통신 인터페이스에 의해, 카메라로부터 원본 영상을 수신하는 단계; 프로세서에 의해, 상기 원본 영상의 마스크 영역을 결정하는 단계; 상기 프로세서에 의해, 상기 마스크 영역 내부의 일련의 픽셀들 사이에서 전환점을 추출하는 단계; 상기 프로세서에 의해, 상기 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성하는 단계; 및 상기 통신 인터페이스에 의해, 상기 마스크 처리된 영상을 사용자 단말에 전송하는 단계;를 포함하고, 상기 일련의 픽셀들은 상기 제1 픽셀 세트와 상기 제2 픽셀 세트를 순서대로 포함한다.
본 실시예에서, 상기 통신 인터페이스에 의해, 상기 마스크 영역을 지정하는 사용자 입력을 수신하는 단계;를 더 포함하고, 상기 마스크 영역을 결정하는 단계는, 상기 사용자 입력에 기초하여 상기 마스크 영역을 결정하는 단계일 수 있다.
본 실시예에서, 상기 프로세서에 의해, 상기 원본 영상으로부터 오브젝트를 인식하는 단계;를 더 포함하고, 상기 마스크 영역을 결정하는 단계는, 상기 오브젝트에 기초하여 상기 마스크 영역을 결정하는 단계일 수 있다.
본 실시예에서, 상기 마스크 영역은 매트릭스 형태로 배열된 복수의 픽셀들을 포함하고, 상기 프로세서에 의해, 상기 복수의 픽셀들을 재배열하여 상기 일련의 픽셀들을 생성하는 단계;를 더 포함할 수 있다.
본 실시예에서, 상기 통신 인터페이스에 의해, 상기 사용자 단말로부터 영상 요청을 수신하는 단계; 상기 프로세서에 의해, 상기 영상 요청에 기초하여 인증 성공 여부를 판단하는 단계; 및 인증에 성공한 경우에 한하여, 상기 통신 인터페이스에 의해, 상기 전환점에 대한 정보를 상기 사용자 단말에 전송하는 단계;를 더 포함할 수 있다.
본 실시예에서, 상기 영상 요청은 사용자 인증 정보 및 단말 인증 정보 중 적어도 하나를 포함하고, 상기 인증은 사용자 인증 및 단말 인증 중 적어도 하나를 포함할 수 있다.
본 발명의 실시예들에 따르면, 프라이버시 보호 처리된 영상을 손실 없이 복원할 수 있으므로, 사용자 편의를 강화할 수 있다.
본 발명의 실시예들에 따르면, 프라이버시 보호 처리된 영상에 대한 복원을 제한할 수 있으므로, 보안을 강화할 수 있다.
도 1은 일 실시예에 따른 네트워크 카메라 시스템의 구성도이다.
도 2a 및 도 2b는 일 실시예들에 따른 영상 처리 장치의 구성도이다.
도 3은 일 실시예에 따른 영상 처리 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 따른 마스크 영역을 설명하기 위한 도면이다.
도 5a 및 도 5b는 실시예들에 따른 마스크 영역 결정 방법을 설명하기 위한 흐름도들이다.
도 6a 내지 도 6d는 실시예들에 따른 마스크 처리 방법을 설명하기 위한 도면들이다.
도 7은 일 실시예에 따른 마스크 처리된 영상을 설명하기 위한 도면이다.
본 발명의 일 실시예에 따른 영상 처리 장치는, 카메라로부터 원본 영상을 수신하는 통신 인터페이스, 상기 원본 영상의 마스크 영역을 결정하고, 상기 마스크 영역 내부의 일련의 픽셀들 사이에서 전환점을 추출하고, 상기 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성하는 프로세서, 및 상기 마스크 처리된 영상 및 상기 전환점에 대한 정보를 저장하는 메모리를 포함하고, 상기 전환점은 하나 이상일 수 있고, 상기 일련의 픽셀들은 상기 제1 픽셀 세트와 상기 제2 픽셀 세트를 순서대로 포함한다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다.
이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
이하 첨부된 도면들을 참조하여 본 발명의 실시예가 상세히 설명된다.
도 1은 일 실시예에 따른 네트워크 카메라 시스템의 구성도이다.
도 1을 참조하면, 일 실시예에 따른 네트워크 카메라 시스템(1)은 카메라(10), 비디오 레코더(20), 네트워크(30), 서버(40), 및 사용자 단말(50)을 포함한다.
카메라(10)는 감시 영역을 촬영하여 감시 영역에 대한 원본 영상을 획득한다. 카메라(10)는 감시 또는 보안의 목적으로 감시 영역을 실시간으로 촬영할 수 있다. 카메라(10)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌 배율이 조절 가능한 PTZ 카메라일 수 있다. 카메라(10)는 하나 이상 구비될 수 있다. 예를 들어, 네트워크 카메라 시스템(1)은 제1 카메라(11) 내지 제n 카메라(1n)를 포함할 수 있다.
카메라(10)는 배터리로 구동되는 저전력 카메라일 수 있다. 저전력 카메라는 평상시 슬립 모드(sleep mode)를 유지하고, 주기적으로 깨어나(wake up) 이벤트가 발생하였는지 여부를 체크한다. 저전력 카메라는 이벤트가 발생한 경우 액티브 모드(active mode)로 전환되고, 이벤트가 발생하지 않은 경우 다시 슬립 모드로 복귀한다. 이와 같이, 저전력 카메라는 이벤트가 발생한 경우에만 액티브 모드를 유지함으로써 전력 소모를 줄일 수 있다.
카메라(10)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 등 다양한 통신 방식을 이용하여 네트워크 장치와 통신할 수 있다. 예를 들면, 카메라(10)는 ISM 대역(Industrial Scientific Medical band)의 무선 주파수(Radio Frequency)를 사용하는 저전력 무선 통신 프로토콜에 따라 서로 통신할 수 있다.
비디오 레코더(20)는 카메라(10)로부터 수신한 원본 영상을 녹화하고, 녹화된 원본 영상을 네트워크(30)를 통해 서버(40) 또는 사용자 단말(50)에 제공한다.
비디오 레코더(20)는 원본 영상을 마스크 처리하고, 마스크 처리된 영상을 네트워크(30)를 통해 서버(40) 또는 사용자 단말(50)에 제공할 수 있다. 이때, 비디오 레코더(20)는 서버(40) 또는 사용자 단말(50)에 마스크 처리된 영상에 대한 개인 키 정보를 추가로 제공할 수 있다. 비디오 레코더(20)는 인증에 성공한 사용자 단말(50)에 한하여 개인 키 정보를 제공할 수 있다.
한편, 비디오 레코더(20)는 마스크 처리된 영상을 사용자 단말(50)에 제공하고, 개인 키 정보를 서버(40)에 제공할 수 있다. 이때, 사용자 단말(50)은 마스크 처리된 영상에 대한 개인 키 정보를 서버(40)로부터 제공받을 수 있다. 서버(40)는 인증에 성공한 사용자 단말(50)에 한하여 개인 키 정보를 제공할 수 있다.
비디오 레코더(20)는 디지털 비디오 레코더(digital video recorder), 네트워크 비디오 레코더(network video recorder) 등일 수 있으며, 이에 한정하지 않는다.
네트워크(30)는 유선 네트워크 또는 무선 네트워크를 포함할 수 있다. 무선 네트워크는 2G(Generation) 또는 3G 셀룰러 통신 시스템, 3GPP(3rd Generation Partnership Project), 4G 통신 시스템, LTE(Long-Term Evolution), WiMAX(World Interoperability for Microwave Access) 등이 될 수 있다.
서버(40)는 네트워크(30)를 통해 비디오 레코더(20)로부터 수신한 원본 영상, 마스크 처리된 영상, 및 개인 키 정보 중 적어도 하나를 사용자 단말(50)에 전송할 수 있다.
서버(40)는 원본 영상, 마스크 처리된 영상, 및 개인 키 정보 중 적어도 하나를 비디오 레코더(20)로부터 주기적으로 수신할 수 있다. 서버(40)는 원본 영상, 마스크 처리된 영상, 및 개인 키 정보 중 적어도 하나를 사용자 단말(50)에 주기적으로 전송할 수 있다.
서버(40)는 영상을 요청하는 사용자 입력에 대응하여 원본 영상, 마스크 처리된 영상, 및 개인 키 정보 중 적어도 하나를 사용자 단말(50)에 전송할 수 있다.
사용자 단말(50)은 비디오 레코더(20) 또는 서버(40)로부터 수신한 원본 영상 또는 마스크 처리된 영상을 디스플레이할 수 있고, 저장할 수도 있다. 이때, 인증에 성공한 사용자 단말(50)은 비디오 레코더(20) 또는 서버(40)로부터 수신한 개인 키 정보를 이용하여 마스크 처리된 영상을 복원할 수 있다.
이처럼, 본 발명에 따르면, 프라이버시 보호 처리된 영상에 대한 복원을 제한할 수 있으므로, 보안을 강화할 수 있다.
또한, 프라이버시 보호 처리된 영상을 손실 없이 복원할 수 있으므로, 사용자 편의를 강화할 수 있다.
도 2a 및 도 2b는 실시예들에 따른 영상 처리 장치의 구성도이다.
도 2a를 참조하면, 제1 영상 처리 장치(100)는 제1 통신 인터페이스(110), 제1 프로세서(130), 및 제1 메모리(150)를 포함한다.
제1 통신 인터페이스(110)는 카메라(10)로부터 원본 영상을 수신한다.
제1 통신 인터페이스(110)는 외부 장치로부터 마스크 영역을 지정하는 사용자 입력을 수신할 수 있다. 외부 장치는 프라이버시 보호 처리된 영상을 사용자 단말(50) 등에 공급하고자 하는 사업자 또는 관리자에 의해 제어될 수 있다. 마스크 영역을 지정하는 사용자 입력은 마스크 영역의 좌표를 선택하는 사용자 입력일 수도 있고, 오브젝트를 지정하는 사용자 입력일 수도 있다.
제1 통신 인터페이스(110)는 사용자 단말(50)로부터 영상 요청을 수신하고, 사용자 단말(50)에 마스크 처리된 영상을 전송할 수 있다. 영상 요청은 사용자 인증 정보 및 단말 인증 정보 중 적어도 하나를 포함할 수 있다. 사용자 인증 정보는 사용자 식별 정보 및 사용자 패스워드 중 적어도 하나를 포함할 수 있다. 단말 인증 정보는 단말 식별 정보 및 단말 패스워드 중 적어도 하나를 포함할 수 있다. 마스크 처리된 영상은 원본 영상의 마스크 영역이 알아볼 수 없도록 처리된 영상을 의미한다.
제1 프로세서(130)는 원본 영상의 마스크 영역을 결정하고, 마스크 영역 내부의 일련의 픽셀들 사이에서 전환점(switched point)을 추출하고, 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성한다. 전환점은 하나 이상일 수 있고, 일련의 픽셀들은 제1 픽셀 세트와 제2 픽셀 세트를 순서대로 포함한다.
제1 픽셀 세트는 하나 이상의 픽셀들을 포함하고, 제1 픽셀 값은 하나 이상의 픽셀들의 픽셀 값들을 나타낸다. 제2 픽셀 세트는 하나 이상의 픽셀들을 포함하고, 제2 픽셀 값은 하나 이상의 픽셀들의 픽셀 값들을 나타낸다.
제1 프로세서(130)는 마스크 영역을 지정하는 사용자 입력에 기초하여 마스크 영역을 결정할 수 있다. 예를 들어, 제1 프로세서(130)는 사용자 입력에 의해 선택된 마스크 영역의 좌표에 따라 마스크 영역을 결정할 수 있다.
제1 프로세서(130)는 원본 영상으로부터 오브젝트를 인식하고, 오브젝트에 기초하여 마스크 영역을 결정할 수 있다. 오브젝트는 얼굴, 차량 번호 등일 수 있다. 오브젝트가 얼굴인 경우, 제1 프로세서(130)는 원본 영상으로부터 얼굴을 인식하고, 얼굴이 표시되는 영역을 마스크 영역으로 결정할 수 있다. 오브젝트가 차량 번호인 경우, 제1 프로세서(130)는 원본 영상으로부터 차량 번호를 인식하고, 차량 번호판 영역을 마스크 영역으로 결정할 수 있다.
마스크 영역은 매트릭스(matrix) 형태로 배열된 복수의 픽셀들을 포함할 수 있고, 제1 프로세서(130)는 복수의 픽셀들을 재배열하여 일련의 픽셀들을 생성할 수 있다. 예를 들어, 제1 프로세서(130)는 매트릭스의 복수의 열(column) 라인들을 하나의 라인으로 재배열하여 일련의 픽셀들을 생성할 수 있다.
마스크 영역은 복수의 라인들로 구성되고, 복수의 라인들은 각각 일련의 픽셀들을 포함하고, 복수의 라인들 각각의 전환점의 개수 및 위치는 서로 독립할 수 있다. 이때, 제1 프로세서(130)는 복수의 라인들 각각에 대하여, 일련의 픽셀들 사이에서 전환점을 추출하고, 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성할 수 있다.
복수의 라인들은 수평선, 수직선, 및 사선 중 적어도 하나일 수 있다. 복수의 라인들은 전부 수평선이거나, 수직선이거나, 또는 사선일 수 있다. 복수의 라인들은 수평선, 수직선, 및 사선 중 적어도 하나를 포함할 수 있다.
복수의 라인들은 제1 라인 및 제2 라인을 포함하고, 제1 프로세서(130)는 제1 라인의 제3 픽셀 값과 제2 라인의 제4 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성할 수 있다.
이때, 제1 프로세서(130)는 제1 라인에 대하여, 전환점을 추출하고, 전환 점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어, 변환된 제1 라인을 생성할 수 있다. 그리고, 제1 프로세서(130)는 제2 라인에 대하여, 전환점을 추출하고, 전환 점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어, 변환된 제2 라인을 생성할 수 있다. 그리고, 제1 프로세서(130)는 변환된 제1 라인의 픽셀 값 전부를 변환된 제2 라인의 픽셀 값 전부와 뒤바꾸어, 마스크 처리된 영상을 생성할 수 있다.
한편, 제3 픽셀 값은 제1 라인의 일부 픽셀 세트인 제3 픽셀 세트의 픽셀 값 이고, 제4 픽셀 값은 제2 라인의 일부 픽셀 세트인 제4 픽셀 세트의 픽셀 값일 수 있다. 제3 픽셀 세트 및 제4 픽셀 세트는 각각 하나 이상의 픽셀들을 포함할 수 있다.
이때, 제1 프로세서(130)는 제1 라인에 대하여, 전환점을 추출하고, 전환 점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 변환된 제1 라인을 생성할 수 있다. 그리고, 제1 프로세서(130)는 제2 라인에 대하여, 전환점을 추출하고, 전환 점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 변환된 제2 라인을 생성할 수 있다. 그리고, 제1 프로세서(130)는 변환된 제1 라인의 제3 픽셀 세트의 제3 픽셀 값과, 변환된 제2 라인의 제3 픽셀 세트의 제3 픽셀 값을, 뒤바꾸어, 마스크 처리된 영상을 생성할 수 있다.
제1 프로세서(130)는 영상 요청에 포함된 사용자 인증 정보에 기초하여 사용자 인증에 성공하거나 영상 요청에 포함된 단말 인증 정보에 기초하여 단말 인증에 성공한 경우에 한하여, 제1 통신 인터페이스(110)를 통해 사용자 단말(50)에 전환점에 대한 정보를 추가로 전송시킬 수 있다. 전환점에 대한 정보는 마스크 처리된 영상을 복원하는데 필요한 정보를 가리킨다.
제1 프로세서(130)는 영상 요청에 포함된 사용자 식별 정보에 기초하여, 사용자 식별 정보가 가리키는 사용자가 마스크 처리된 영상을 복원할 자격이 있는 사용자인지 여부를 판단할 수 있다. 제1 프로세서(130)는 영상 요청에 포함된 사용자 식별 정보 및 사용자 패스워드에 기초하여, 마스크 처리된 영상을 복원할 자격이 있는 사용자임을 확인할 수 있다.
제1 프로세서(130)는 영상 요청에 포함된 단말 식별 정보에 기초하여, 단말 식별 정보가 가리키는 단말이 마스크 처리된 영상의 복원이 허가된 단말인지 여부를 판단할 수 있다. 제1 프로세서(130)는 영상 요청에 포함된 단말 식별 정보 및 단말 패스워드에 기초하여, 마스크 처리된 영상의 복원이 허가된 단말임을 확인할 수 있다.
즉, 본 실시예에 따르면, 인증에 성공한 사용자 단말(50)에 한하여 마스크 처리된 영상 및 개인 키 정보가 전송되고, 인증에 실패한 사용자 단말(50)에는 마스크 처리된 영상만이 전송됨으로써, 프라이버시 보호 처리된 영상에 대한 복원을 제한할 수 있으므로, 보안을 보다 강화할 수 있다.
제1 메모리(150)는 마스크 처리된 영상 및 전환점에 대한 정보를 저장한다. 제1 메모리(150)는 원본 영상을 더 저장할 수 있다. 제1 메모리(150)는 원본 영상을 입력된 순서대로 저장하는 라인 메모리일 수 있다. 즉, 매트릭스 형태의 원본 영상은 최초 행부터 최종 행까지 순서대로 제1 메모리(150)에 저장되고, 각 행은 최초 열부터 최종 열까지 순서대로 제1 메모리(150)에 저장될 수 있다.
한편, 제1 프로세서(130)는 전환점을 기준으로, 제1 메모리(150)에 저장된 원본 영상의 픽셀 값을 서로 뒤바뀌어 저장함으로써, 마스크 처리된 영상을 생성하여 제1 메모리(150)에 저장할 수 있다. 이때, 제1 프로세서(130)는 마스크 처리된 영상과 전환점에 대한 정보를 서로 매치하여 제1 메모리(150)에 저장할 수 있다.
제1 영상 처리 장치(100)는 어느 하나의 물리적 장치로 구현되거나, 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 제1 영상 처리 장치(100)는 비디오 레코더(20) 또는 서버(40)로 구현될 수 있다. 제1 영상 처리 장치(100)는 일부가 비디오 레코더(20)로 나머지 일부가 서버(40)로 구현될 수 있다. 한편, 제1 영상 처리 장치(200)는 사용자 단말(50)의 일부로 구현될 수도 있다.
도 2b를 참조하면, 제2 영상 처리 장치(200)는 사용자 인터페이스(210), 제2 통신 인터페이스(230), 제2 프로세서(250), 제2 메모리(270), 및 디스플레이(290)를 포함한다.
사용자 인터페이스(210)는 사용자 입력을 수신한다. 사용자 인터페이스(210)가 수신하는 사용자 입력은 사용자 인증 정보 및 단말 인증 정보 중 적어도 하나를 포함할 수 있다.
제2 통신 인터페이스(230)는 비디오 레코더(20)에 영상 요청을 전송하고, 비디오 레코더(20)로부터 마스크 처리된 영상 및 개인 키 정보를 수신한다. 영상 요청은 사용자 인증 정보 및 단말 인증 정보 중 적어도 하나를 포함할 수 있다.
제2 프로세서(250)는 마스크 처리된 영상에 대하여, 제1 프로세서(130)에 의해 수행된 마스크 처리 과정을 반대로 수행함으로써, 마스크 처리된 영상의 마스크 영역을 복원할 수 있다.
제2 프로세서(250)는 개인 키 정보로부터 전환점을 추출하고, 마스크 처리된 영상으로부터 마스크 영역을 추출하고, 마스크 영역으로부터 제1 픽셀 세트와 제2 픽셀 세트를 순서대로 포함하는 일련의 픽셀들을 추출하고, 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 복원 영상을 생성한다.
이때, 제2 프로세서(250)는 픽셀 값이 뒤바뀐 일련의 픽셀들을 매트릭스 형태로 재배열하여 마스크 영역을 복원할 수 있다. 예를 들어, 제2 프로세서(250)는 픽셀 값이 뒤바뀐 일련의 픽셀들로 구성되는 하나의 라인을, 각각 m개의 픽셀들을 포함하는 n개의 라인들로 분리할 수 있다. 이어서, 제2 프로세서(250)는 분리된 n개의 라인들을 순서대로 재배열하여 m×n 매트릭스 형태의 마스크 영역을 복원할 수 있다.
한편, 마스크 영역은 복수의 라인들로 구성되고, 복수의 라인들은 각각 일련의 픽셀들을 포함하고, 복수의 라인들 각각의 전환점의 개수 및 위치는 서로 독립할 수 있다. 이때, 제2 프로세서(250)는 복수의 라인들 각각에 대하여, 개인 키 정보로부터 전환점을 추출하고, 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 복원 영상을 생성할 수 있다.
복수의 라인들은 제1 라인 및 제2 라인을 포함하고, 제2 프로세서(250)는 제1 라인의 제3 픽셀 값과 제2 라인의 제4 픽셀 값을 뒤바꾸어 복원 영상을 생성할 수 있다.
이때, 제2 프로세서(250)는 제1 라인에 대하여, 전환점을 추출하고, 전환 점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어, 변환된 제1 라인을 생성할 수 있다. 그리고, 제2 프로세서(250)는 제2 라인에 대하여, 전환점을 추출하고, 전환 점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어, 변환된 제2 라인을 생성할 수 있다. 그리고, 제2 프로세서(250)는 변환된 제1 라인의 픽셀 값 전부를 변환된 제2 라인의 픽셀 값 전부와 뒤바꾸어, 복원 영상을 생성할 수 있다.
한편, 제3 픽셀 값은 제1 라인의 일부 픽셀 세트인 제3 픽셀 세트의 픽셀 값 이고, 제4 픽셀 값은 제2 라인의 일부 픽셀 세트인 제4 픽셀 세트의 픽셀 값일 수 있다.
이때, 제2 프로세서(250)는 제1 라인에 대하여, 전환점을 추출하고, 전환 점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어, 변환된 제1 라인을 생성할 수 있다. 그리고, 제2 프로세서(250)는 제2 라인에 대하여, 전환점을 추출하고, 전환 점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어, 변환된 제2 라인을 생성할 수 있다. 그리고, 제2 프로세서(250)는 변환된 제1 라인의 제3 픽셀 세트의 제3 픽셀 값과, 변환된 제2 라인의 제3 픽셀 세트의 제3 픽셀 값을, 뒤바꾸어, 복원 영상을 생성할 수 있다.
제2 메모리(270)는 마스크 처리된 영상, 개인 키 정보, 복원 영상 등을 저장한다. 제2 메모리(270)는 마스크 처리된 영상을 입력된 순서대로 저장하는 라인 메모리일 수 있다. 즉, 매트릭스 형태의 마스크 처리된 영상은 최초 행부터 최종 행까지 순서대로 제2 메모리(270)에 저장되고, 각 행은 최초 열부터 최종 열까지 순서대로 제2 메모리(270)에 저장될 수 있다.
한편, 제2 프로세서(250)는 전환점을 기준으로, 제2 메모리(270)에 저장된 마스크 처리된 영상의 픽셀 값을 서로 뒤바뀌어 저장함으로써, 복원 영상을 생성하여 제2 메모리(270)에 저장할 수 있다. 이때, 제2 프로세서(250)는 마스크 처리된 영상과 복원 영상을 서로 매치하여 제2 메모리(270)에 저장할 수 있다.
디스플레이(290)는 마스크 처리된 영상 또는 복원 영상을 화면에 표시한다.
제2 영상 처리 장치(200)는 어느 하나의 물리적 장치로 구현되거나, 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 제2 영상 처리 장치(200)는 사용자 단말(50)로 구현될 수 있다. 제2 영상 처리 장치(200)는 일부가 사용자 단말(50)로 나머지 일부가 비디오 레코더(20) 또는 서버(40)로 구현될 수 있다.
이하에서, 도 3 내지 도 7을 참조하여, 일 실시예에 따른 영상 처리 방법에 대하여 상세하게 설명한다.
도 3은 일 실시예에 따른 영상 처리 방법을 설명하기 위한 흐름도이다.
도 3을 참조하면, 카메라(10)는 감시 영역을 촬영한다(S110). 카메라(10)는 감시 영역을 촬영하여 원본 영상을 생성할 수 있다.
비디오 레코더(20)는 카메라(10)로부터 원본 영상을 수신한다(S120). 이때, 비디오 레코더(20)는 카메라(10)로부터 원본 영상과 함께, 원본 영상의 촬영 시간, 이벤트에 관한 정보, 및 카메라 식별 정보를 수신할 수 있다.
이어서, 비디오 레코더(20)는 원본 영상의 마스크 영역을 결정한다(S130).
비디오 레코더(20)는 카메라(10)로부터 수신한 모든 원본 영상에 대하여 마스크 처리할 수 있다.
비디오 레코더(20)는 카메라(10)로부터 수신한 원본 영상의 촬영 시간에 기초하여 원본 영상을 마스크 처리할 지 여부를 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 시간에 촬영된 원본 영상에 한하여 마스크 영상을 생성할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 시간을 제외한 시간에 촬영된 원본 영상에 대하여 마스크 영상을 생성할 수 있다.
비디오 레코더(20)는 카메라(10)로부터 수신한 이벤트에 관한 정보에 기초하여 원본 영상을 마스크 처리할 지 여부를 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 이벤트에 대응하여 촬영된 원본 영상에 한하여 마스크 영상을 생성할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 이벤트를 제외한 이벤트에 대응하여 촬영된 원본 영상에 대하여 마스크 영상을 생성할 수 있다.
비디오 레코더(20)는 카메라(10)로부터 수신한 원본 영상의 촬영 시간에 기초하여 원본 영상을 마스크 처리할 지 여부를 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 시간에 촬영된 원본 영상에 한하여 마스크 영상을 생성할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 시간을 제외한 시간에 촬영된 원본 영상에 대하여 마스크 영상을 생성할 수 있다.
비디오 레코더(20)는 카메라(10)로부터 수신한 카메라 식별 정보에 기초하여 원본 영상을 마스크 처리할 지 여부를 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 지역에 설치된 제1 카메라(11)로부터 수신한 원본 영상에 한하여 마스크 영상을 생성할 수 있다.
비디오 레코더(20)는 원본 영상의 전부를 마스크 영역으로 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 이벤트에 대응하여 촬영된 원본 영상을 전부 마스크 처리할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 지역에 설치된 제1 카메라(11)로부터 수신한 원본 영상을 전부 마스크 처리할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 시간에 촬영된 원본 영상을 전부 마스크 처리할 수 있다.
비디오 레코더(20)는 원본 영상의 일부를 마스크 영역으로 결정할 수 있다. 이하에서, 도 4를 참조하여, 원본 영상의 일부가 마스크 영역으로 결정된 경우에 대하여 설명한다.
도 4는 일 실시예에 따른 마스크 영역을 설명하기 위한 도면이다.
도 4를 참조하면, 비디오 레코더(20)는 카메라(10)로부터 수신한 원본 영상(OI)의 일부를 마스크 영역(MA)으로 결정할 수 있다.
마스크 영역(MA)의 모양은 도 4와 같은 사각형, 사각형 이외의 다각형, 원형, 오브젝트의 윤곽선과 같은 다양한 형태의 폐곡선 모양일 수 있다.
이하에서, 도 5a 및 도 5b를 참조하여, 마스크 영역 결정 방법에 대하여 설명한다.
도 5a 및 도 5b는 실시예들에 따른 마스크 영역 결정 방법을 설명하기 위한 흐름도들이다.
도 5a를 참조하면, 비디오 레코더(20)는 마스크 영역을 지정하는 사용자 입력을 수신한다(S131).
마스크 영역을 지정하는 사용자 입력은, 마스크 영역(MA)의 4개의 꼭지점의 좌표를 선택하는 사용자 입력일 수 있다. 예를 들어, 마스크 영역을 지정하는 사용자 입력은, 4개의 꼭지점을 각각 선택하는 사용자 입력 또는 하나의 꼭지점 및 대각선에 위치하는 다른 꼭지점을 각각 선택하는 사용자 입력일 수 있으며, 이에 한정하지 않는다.
마스크 영역을 지정하는 사용자 입력은, 마스크 영역(MA) 내부의 어느 한 점을 선택하는 사용자 입력일 수 있다. 예를 들어, 마스크 영역을 지정하는 사용자 입력은, 소정 오브젝트를 선택하는 사용자 입력일 수 있다.
마스크 영역을 지정하는 사용자 입력은 하나 이상일 수 있다.
한편, 비디오 레코더(20)는 사용자 입력에 기초하여 마스크 영역을 결정한다(S133).
비디오 레코더(20)는 4개의 꼭지점의 좌표를 선택하는 사용자 입력에 기초하여, 4개의 꼭지점의 좌표에 위치하는 마스크 영역(MA)을 결정할 수 있다.
비디오 레코더(20)는 마스크 영역(MA) 내부의 어느 한 점을 선택하는 사용자 입력에 기초하여, 사용자 입력에 의해 선택된 어느 한 점을 기준으로 소정 면적을 가지는 마스크 영역(MA)을 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 소정 얼굴을 선택하는 사용자 입력에 기초하여, 소정 얼굴을 커버하는 면적을 가지는 마스크 영역(MA)을 결정할 수 있다.
도 5b를 참조하면, 비디오 레코더(20)는 원본 영상으로부터 오브젝트를 인식한다(S132).
비디오 레코더(20)는 원본 영상으로부터 하나 이상의 얼굴들 또는 하나 이상의 차량 번호를 인식할 수 있다.
비디오 레코더(20)는 원본 영상으로부터 하나 이상의 소정 얼굴들 또는 하나 이상의 소정 차량 번호들을 인식할 수 있다. 하나 이상의 소정 얼굴들은 특정인들을 가리킬 수 있다. 하나 이상의 소정 차량 번호들은 소정 지역에 등록된 차량 번호들, 소정 숫자를 포함하는 차량 번호들 등을 가리킬 수 있다.
이어서, 비디오 레코더(20)는 인식된 오브젝트에 기초하여 마스크 영역을 결정한다(S134).
비디오 레코더(20)는 얼굴을 커버하는 면적을 가지는 마스크 영역(MA)을 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 원본 영상에 표시된 하나 이상의 얼굴들 각각을 커버하는 하나 이상의 마스크 영역(MA)을 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 원본 영상에 표시된 하나 이상의 얼굴들 중 안경을 착용하지 않은 얼굴들 각각을 커버하는 하나 이상의 마스크 영역(MA)을 결정할 수 있다.
비디오 레코더(20)는 차량 번호판 영역을 마스크 영역(MA)으로 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 원본 영상에 표시된 하나 이상의 차량 번호판 영역들을 마스크 영역(MA)으로 결정할 수 있다. 예를 들어, 비디오 레코더(20)는 원본 영상에 표시된 하나 이상의 차량 번호판 영역들 중 소정 숫자를 포함하지 않는 차량 번호판 영역을 마스크 영역(MA)으로 결정할 수 있다.
다시, 도 3을 참조하면, 비디오 레코더(20)는 마스크 영역 내부의 일련의 픽셀들 사이에서 전환점을 추출한다(S140). 일련의 픽셀들은 제1 픽셀 세트와 제2 픽셀 세트를 순서대로 포함한다.
이어서, 비디오 레코더(20)는 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성한다(S150).
이하에서, 도 6a 내지 도 6d를 참조하여, 마스크 처리 영상 생성 방법에 대하여 상세하게 설명한다.
도 6a 내지 도 6d는 실시예들에 따른 마스크 처리 방법을 설명하기 위한 도면들이다.
도 6a를 참조하면, 예를 들어, 원본 영상(OI)의 마스크 영역(MA) 내부의 제1 라인(L1)은 0 내지 9의 픽셀 값들을 가지는 일련의 픽셀들을 포함할 수 있다. 즉, 제1 라인(L1)의 일련의 픽셀들은 제1 픽셀 값 0 내지 3을 갖는 제1 픽셀 세트(P1) 및 제2 픽셀 값 4 내지 9을 갖는 제2 픽셀 세트(P2)를 순서대로 포함할 수 있다.
비디오 레코더(20)는 원본 영상(OI)의 마스크 영역(MA) 내부의 제1 라인(L1)을 구성하는 일련의 픽셀들 사이에서 제1 전환점(H1)을 추출할 수 있다.
비디오 레코더(20)는 제1 전환점(H1)을 기준으로 제1 픽셀 세트(P1)의 제1 픽셀 값 0 내지 3과 제2 픽셀 세트(P2)의 제2 픽셀 값 4 내지 9를 뒤바꾸어 마스크 처리된 영상을 생성할 수 있다.
이에 따라, 마스크 처리된 영상(MI)의 마스크 영역(MA) 내부의 변환된 제1 라인(L1’)은 4 내지 9 및 0 내지 3의 픽셀 값들을 가지는 일련의 픽셀들을 포함할 수 있다.
도 6b를 참조하면, 예를 들어, 원본 영상(OI)의 마스크 영역(MA) 내부의 제1 라인(L1) 및 제2 라인(L2)은 각각 0 내지 9의 픽셀 값들을 가지는 일련의 픽셀들을 포함할 수 있다. 즉, 제1 라인(L1)의 일련의 픽셀들은 제1 픽셀 값 0 내지 3을 갖는 제1 픽셀 세트(P11) 및 제2 픽셀 값 4 내지 9을 갖는 제2 픽셀 세트(P12)를 순서대로 포함할 수 있다. 제2 라인(L2)의 일련의 픽셀들은 제1 픽셀 값 0 내지 4를 갖는 제1 픽셀 세트(P21) 및 제2 픽셀 값 5 내지 9을 갖는 제2 픽셀 세트(P22)를 순서대로 포함할 수 있다.
비디오 레코더(20)는 제1 라인(L1)라인에 대하여, 제1 전환점(H1)을 추출하고, 제1 전환점(H1)을 기준으로 제1 픽셀 세트(P11)의 제1 픽셀 값 0 내지 3과 제2 픽셀 세트(P12)의 제2 픽셀 값 4 내지 9을 뒤바꾸어, 1차 변환된 제1 라인(L1’)을 생성할 수 있다. 그리고, 비디오 레코더(20)는 제2 라인(L2)에 대하여, 제2 전환점(H2)을 추출하고, 제2 전환점(H2)을 기준으로 제1 픽셀 세트(P21)의 제1 픽셀 값 0 내지 4과 제2 픽셀 세트(P22)의 제2 픽셀 값 5 내지 9을 뒤바꾸어 1차 변환된 제2 라인(L2’
그리고, 비디오 레코더(20)는 1차 변환된 제1 라인(L1’)의 픽셀 값 4 내지 9 및 0 내지 3 전부를 1차 변환된 제2 라인(L2’)의 픽셀 값 5 내지 9 및 0 내지 4 전부와 뒤바꾸어, 마스크 처리된 영상을 생성할 수 있다.
이에 따라, 마스크 처리된 영상(MI)의 마스크 영역(MA) 내부의 2차 변환된 제1 라인(L1’’)은 5 내지 9 및 0 내지 4의 픽셀 값들을 가지는 일련의 픽셀들을 포함하고, 마스크 처리된 영상(MI)의 마스크 영역(MA) 내부의 2차 변환된 제2 라인(L2’’)은 4 내지 9 및 0 내지 3의 픽셀 값들을 가지는 일련의 픽셀들을 포함할 수 있다.
도 6c를 참조하면, 예를 들어, 원본 영상(OI)의 마스크 영역(MA) 내부의 제1 라인(L1) 및 제2 라인(L2)은 각각 0 내지 9의 픽셀 값들을 가지는 일련의 픽셀들을 포함할 수 있다. 즉, 제1 라인(L1)의 일련의 픽셀들은 제1 픽셀 값 0 내지 3을 갖는 제1 픽셀 세트(P11) 및 제2 픽셀 값 4 내지 9을 갖는 제2 픽셀 세트(P12)를 순서대로 포함할 수 있다. 제2 라인(L2)의 일련의 픽셀들은 제1 픽셀 값 0 내지 4를 갖는 제1 픽셀 세트(P21) 및 제2 픽셀 값 5 내지 9을 갖는 제2 픽셀 세트(P22)를 순서대로 포함할 수 있다.
비디오 레코더(20)는 제1 라인(L1)라인에 대하여, 제1 전환점(H1)을 추출하고, 제1 전환점(H1)을 기준으로 제1 픽셀 세트(P11)의 제1 픽셀 값 0 내지 3과 제2 픽셀 세트(P12)의 제2 픽셀 값 4 내지 9을 뒤바꾸어, 1차 변환된 제1 라인(L1’)을 생성할 수 있다. 그리고, 비디오 레코더(20)는 제2 라인(L2)에 대하여, 제2 전환점(H2)을 추출하고, 제2 전환점(H2)을 기준으로 제1 픽셀 세트(P21)의 제1 픽셀 값 0 내지 4과 제2 픽셀 세트(P22)의 제2 픽셀 값 5 내지 9을 뒤바꾸어 1차 변환된 제2 라인(L2’)을 생성할 수 있다.
그리고, 비디오 레코더(20)는 1차 변환된 제1 라인(L1’)을 구성하는 일련의 픽셀들 및 1차 변환된 제2 라인(L2’)을 구성하는 일련의 픽셀들 사이에서 각각 제3 전환점(H3)을 추출할 수 있다.
비디오 레코더(20)는 제3 전환점(H3)을 기준으로, 1차 변환된 제1 라인(L1’)의 제3 픽셀 세트(P13)의 제3 픽셀 값 4 내지 9 및 0과, 1차 변환된 제2 라인(L2’)의 제3 픽셀 세트(P23)의 제3 픽셀 값 5 내지 9, 0, 및 1을, 뒤바꾸어, 마스크 처리된 영상을 생성할 수 있다.
이에 따라, 마스크 처리된 영상(MI)의 마스크 영역(MA) 내부의 2차 변환된 제1 라인(L1’’’)은 5 내지 9, 0, 1, 및 1 내지 3의 픽셀 값들을 가지는 일련의 픽셀들을 포함하고, 마스크 처리된 영상(MI)의 마스크 영역(MA) 내부의 2차 변환된 제2 라인(L2’’’)은 4 내지 9, 0, 및 2 내지 4의 픽셀 값들을 가지는 일련의 픽셀들을 포함할 수 있다.
도 6d를 참조하면, 예를 들어, 원본 영상(OI)의 마스크 영역(MA)은 매트릭스 형태로 배열된 복수의 픽셀들을 포함할 수 있다.
비디오 레코더(20)는 복수의 픽셀들을 재배열하여 일련의 픽셀들을 생성할 수 있다. 예를 들어, 비디오 레코더(20)는 매트릭스의 제1 열 라인(R1) 내지 제8 열 라인(R8)들을 제3 라인(L3)으로 재배열하여 일련의 픽셀들을 생성할 수 있다. 이때, 비디오 레코더(20)는 제1 열 라인(R1) 내지 제8 열 라인(R8)을 순차적으로 나열하여 제3 라인(L3)을 생성할 수 있다. 제3 라인(L3)에 포함된 일련의 픽셀들은 제1 픽셀 값 10 내지 26을 갖는 제1 픽셀 세트(P1) 및 제2 픽셀 값 27 내지 87을 갖는 제2 픽셀 세트(P2)를 순서대로 포함할 수 있다.
비디오 레코더(20)는 원본 영상(OI)의 마스크 영역(MA) 내부의 제3 라인(L3)을 구성하는 일련의 픽셀들 사이에서 제3 전환점(H3)을 추출할 수 있다.
비디오 레코더(20)는 제3 전환점(H3)을 기준으로 제1 픽셀 세트(P1)의 제1 픽셀 값 10 내지 26과 제2 픽셀 세트(P2)의 제2 픽셀 값 27 내지 87을 뒤바꾸어 마스크 처리된 영상을 생성할 수 있다.
이에 따라, 마스크 처리된 영상(MI)의 마스크 영역(MA) 내부의 변환된 제3 라인(L3’)은 27 내지 87 및 10 내지 26의 픽셀 값들을 가지는 일련의 픽셀들을 포함할 수 있다.
이하에서, 도 7을 참조하여, 마스크 처리된 영역에 대하여 설명한다.
도 7은 일 실시예에 따른 마스크 처리된 영상을 설명하기 위한 도면이다.
도 7을 참조하면, 본 실시예들에 따라 마스크 처리된 영상(MI)의 마스크 영역(MA)은 원본 영상(OI)의 해당 영역을 알아볼 수 없도록 처리될 수 있다
다시, 도 3을 참조하면, 비디오 레코더(20)는 사용자 단말(50)로부터 영상 요청을 수신한다(S160). 영상 요청은 사용자 인증 정보 및 단말 인증 정보 중 적어도 하나를 포함할 수 있다.
이어서, 비디오 레코더(20)는 마스크 처리된 영상을 사용자 단말(50)에 전송한다(S170). 비디오 레코더(20)는 영상 요청에 대응하여 마스크 처리된 영상을 사용자 단말(50)에 전송할 수 있다.
사용자 단말(50)은 마스크 처리된 영상을 화면에 표시한다(S180).
이처럼, 본 실시예에 따른 네트워크 카메라 시스템(1)은 사용자 단말(50)을 통해 프라이버시 보호 처리된 영상을 표시함으로써, 보안을 강화할 수 있다.
한편, 비디오 레코더(20)는 영상 요청에 기초하여 인증 성공 여부를 판단한다(S210). 인증은 사용자 인증 및 단말 인증 중 적어도 하나를 포함할 수 있다.
비디오 레코더(20)는 인증에 성공한 경우에 한하여, 전환점에 대한 정보가 포함된 개인 키 정보를 사용자 단말(50)에 전송한다(S220).
사용자 단말(50)은 개인 키 정보로부터 전환점을 추출하고(S230), 마스크 처리된 영상으로부터 마스크 영역을 추출하고(S240), 마스크 영역으로부터 제1 픽셀 세트와 제2 픽셀 세트를 순서대로 포함하는 일련의 픽셀들을 추출하고(S250), 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 복원 영상을 생성한다(S260).
사용자 단말(50)은 복원 영상을 화면에 표시한다(S270).
이처럼, 본 실시예에 따른 네트워크 카메라 시스템(1)은 사용자 단말(50)을 통해 프라이버시 보호 처리된 영상을 손실 없이 복원할 수 있으므로, 사용자 편의를 강화할 수 있다.
또한, 본 실시예에 따른 네트워크 카메라 시스템(1)은 사용자 단말(50)을 통해 프라이버시 보호 처리된 영상에 대한 복원을 제한함으로써, 보안을 강화할 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
다양한 형태의 영상 처리 시스템에서 이용될 가능성이 높다.

Claims (20)

  1. 카메라로부터 원본 영상을 수신하는 통신 인터페이스;
    상기 원본 영상의 마스크 영역을 결정하고, 상기 마스크 영역 내부의 일련의 픽셀들 사이에서 전환점을 추출하고, 상기 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성하는 프로세서; 및
    상기 마스크 처리된 영상 및 상기 전환점에 대한 정보를 저장하는 메모리;를 포함하고,
    상기 전환점은 하나 이상일 수 있고,
    상기 일련의 픽셀들은 상기 제1 픽셀 세트와 상기 제2 픽셀 세트를 순서대로 포함하는, 영상 처리 장치.
  2. 제1항에 있어서,
    상기 통신 인터페이스는 상기 마스크 영역을 지정하는 사용자 입력을 수신하고,
    상기 프로세서는 상기 사용자 입력에 기초하여 상기 마스크 영역을 결정하는, 영상 처리 장치.
  3. 제1항에 있어서,
    상기 프로세서는 상기 원본 영상으로부터 오브젝트를 인식하고, 상기 오브젝트에 기초하여 상기 마스크 영역을 결정하는, 영상 처리 장치.
  4. 제1항에 있어서,
    상기 마스크 영역은 매트릭스 형태로 배열된 복수의 픽셀들을 포함하고,
    상기 프로세서는 상기 복수의 픽셀들을 재배열하여 상기 일련의 픽셀들을 생성하는, 영상 처리 장치.
  5. 제1항에 있어서,
    상기 마스크 영역은 복수의 라인들로 구성되고,
    상기 복수의 라인들은 각각 상기 일련의 픽셀들을 포함하고,
    상기 복수의 라인들 각각의 전환점의 개수 및 위치는 서로 독립하는, 영상 처리 장치.
  6. 제5항에 있어서,
    상기 복수의 라인들은 수평선, 수직선, 및 사선 중 적어도 하나인, 영상 처리 장치.
  7. 제5항에 있어서,
    상기 복수의 라인들은 제1 라인 및 제2 라인을 포함하고,
    상기 프로세서는 상기 제1 라인의 제3 픽셀 값과 상기 제2 라인의 제4 픽셀 값을 뒤바꾸어 상기 마스크 처리된 영상을 생성하는, 영상 처리 장치.
  8. 제7항에 있어서,
    상기 제3 픽셀 값은 상기 제1 라인의 일부 픽셀 세트인 제3 픽셀 세트의 픽셀 값이고,
    상기 제4 픽셀 값은 상기 제2 라인의 일부 픽셀 세트인 제4 픽셀 세트의 픽셀 값인, 영상 처리 장치.
  9. 제1항에 있어서,
    상기 통신 인터페이스는 사용자 단말로부터 영상 요청을 수신하고, 상기 사용자 단말에 상기 마스크 처리된 영상을 전송하고,
    상기 프로세서는 상기 영상 요청에 포함된 사용자 인증 정보에 기초하여 사용자 인증에 성공하거나 상기 영상 요청에 포함된 단말 인증 정보에 기초하여 단말 인증에 성공한 경우에 한하여, 상기 통신 인터페이스를 통해 상기 사용자 단말에 상기 전환점에 대한 정보를 추가로 전송시키는, 영상 처리 장치.
  10. 비디오 레코더에 영상 요청을 전송하고, 상기 비디오 레코더로부터 마스크 처리된 영상 및 개인 키 정보를 수신하는 통신 인터페이스;
    상기 개인 키 정보로부터 전환점을 추출하고, 상기 마스크 처리된 영상으로부터 마스크 영역을 추출하고, 상기 마스크 영역으로부터 제1 픽셀 세트와 제2 픽셀 세트를 순서대로 포함하는 일련의 픽셀들을 추출하고, 상기 전환점을 기준으로 상기 제1 픽셀 세트의 제1 픽셀 값과 상기 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 복원 영상을 생성하는 프로세서; 및
    상기 마스크 처리된 영상을 표시하거나 상기 복원 영상을 화면에 표시하는 디스플레이;를 포함하는, 영상 처리 장치.
  11. 제10항에 있어서,
    상기 영상 요청은 사용자 인증 정보 및 단말 인증 정보 중 적어도 하나를 포함하는, 영상 처리 장치.
  12. 제10항에 있어서,
    상기 프로세서는 픽셀 값이 뒤바뀐 일련의 픽셀들을 매트릭스 형태로 재배열하여 상기 마스크 영역을 복원하는, 영상 처리 장치.
  13. 제10항에 있어서,
    상기 마스크 영역은 제1 라인 및 제2 라인을 포함하는 복수의 라인들로 구성되고,
    상기 프로세서는 상기 제1 라인의 제3 픽셀 값과 상기 제2 라인의 제4 픽셀 값을 뒤바꾸어 상기 복원 영상을 생성하는, 영상 처리 장치.
  14. 제13항에 있어서,
    상기 제3 픽셀 값은 상기 제1 라인의 일부 픽셀 세트인 제3 픽셀 세트의 픽셀 값이고,
    상기 제4 픽셀 값은 상기 제2 라인의 일부 픽셀 세트인 제4 픽셀 세트의 픽셀 값인, 영상 처리 장치.
  15. 통신 인터페이스에 의해, 카메라로부터 원본 영상을 수신하는 단계;
    프로세서에 의해, 상기 원본 영상의 마스크 영역을 결정하는 단계;
    상기 프로세서에 의해, 상기 마스크 영역 내부의 일련의 픽셀들 사이에서 전환점을 추출하는 단계;
    상기 프로세서에 의해, 상기 전환점을 기준으로 제1 픽셀 세트의 제1 픽셀 값과 제2 픽셀 세트의 제2 픽셀 값을 뒤바꾸어 마스크 처리된 영상을 생성하는 단계; 및
    상기 통신 인터페이스에 의해, 상기 마스크 처리된 영상을 사용자 단말에 전송하는 단계;를 포함하고,
    상기 일련의 픽셀들은 상기 제1 픽셀 세트와 상기 제2 픽셀 세트를 순서대로 포함하는, 영상 처리 방법.
  16. 제15항에 있어서,
    상기 통신 인터페이스에 의해, 상기 마스크 영역을 지정하는 사용자 입력을 수신하는 단계;를 더 포함하고,
    상기 마스크 영역을 결정하는 단계는,
    상기 사용자 입력에 기초하여 상기 마스크 영역을 결정하는 단계인, 영상 처리 방법.
  17. 제15항에 있어서,
    상기 프로세서에 의해, 상기 원본 영상으로부터 오브젝트를 인식하는 단계;를 더 포함하고,
    상기 마스크 영역을 결정하는 단계는,
    상기 오브젝트에 기초하여 상기 마스크 영역을 결정하는 단계인, 영상 처리 방법.
  18. 제15항에 있어서,
    상기 마스크 영역은 매트릭스 형태로 배열된 복수의 픽셀들을 포함하고,
    상기 프로세서에 의해, 상기 복수의 픽셀들을 재배열하여 상기 일련의 픽셀들을 생성하는 단계;를 더 포함하는, 영상 처리 방법.
  19. 제15항에 있어서,
    상기 통신 인터페이스에 의해, 상기 사용자 단말로부터 영상 요청을 수신하는 단계;
    상기 프로세서에 의해, 상기 영상 요청에 기초하여 인증 성공 여부를 판단하는 단계; 및
    인증에 성공한 경우에 한하여, 상기 통신 인터페이스에 의해, 상기 전환점에 대한 정보를 상기 사용자 단말에 전송하는 단계;를 더 포함하는, 영상 처리 방법.
  20. 제19항에 있어서,
    상기 영상 요청은 사용자 인증 정보 및 단말 인증 정보 중 적어도 하나를 포함하고,
    상기 인증은 사용자 인증 및 단말 인증 중 적어도 하나를 포함하는, 영상 처리 방법.
PCT/KR2016/015484 2016-12-01 2016-12-29 영상 처리 장치 및 방법 WO2018101533A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16922826.9A EP3550505A4 (en) 2016-12-01 2016-12-29 IMAGE PROCESSING DEVICE AND METHOD
US16/465,427 US10805527B2 (en) 2016-12-01 2016-12-29 Image processing device and method
CN201680091313.XA CN110023987B (zh) 2016-12-01 2016-12-29 图像处理装置及方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0162925 2016-12-01
KR1020160162925A KR102561306B1 (ko) 2016-12-01 2016-12-01 영상 처리 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2018101533A1 true WO2018101533A1 (ko) 2018-06-07

Family

ID=62242172

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/015484 WO2018101533A1 (ko) 2016-12-01 2016-12-29 영상 처리 장치 및 방법

Country Status (5)

Country Link
US (1) US10805527B2 (ko)
EP (1) EP3550505A4 (ko)
KR (1) KR102561306B1 (ko)
CN (1) CN110023987B (ko)
WO (1) WO2018101533A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712092B (zh) * 2018-12-18 2021-01-05 上海信联信息发展股份有限公司 档案扫描图像修复方法、装置及电子设备
US12001572B2 (en) * 2019-05-13 2024-06-04 Snap One, Llc Systems and methods for generating artificial automation data to protect actual automation data
CN110503114B (zh) * 2019-08-29 2023-04-07 中国科学院深圳先进技术研究院 图像特征提取方法、装置、肿瘤识别系统及存储介质
KR102454677B1 (ko) * 2021-01-25 2022-10-17 주식회사 노타 암호 키 기반 영상의 개인정보 비 식별화 및 복원 기술

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120035299A (ko) * 2010-10-05 2012-04-16 한국인터넷진흥원 프라이버시 보호를 위한 영상 보호처리 장치와, 그를 이용한 영상 보안 시스템 및 그 방법
KR101458136B1 (ko) * 2014-02-28 2014-11-05 김호 영상 처리 방법, 이를 실행하는 영상 처리 서버, 감시 서버, 영상 처리 시스템 및 이를 저장한 기록 매체
JP2015170954A (ja) * 2014-03-06 2015-09-28 学校法人立命館 暗号装置、復号装置、それらを備えたセキュリティーシステム、それらで実行されるプログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
KR101621723B1 (ko) * 2015-02-13 2016-05-19 경일대학교산학협력단 얼굴 인식 기반 프라이버시 보호를 위한 영상 처리 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체
US20160260235A1 (en) * 2015-03-05 2016-09-08 Novatek Microelectronics Corp. Method for Generating Masking Image Using General Polygonal Mask

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930011731A (ko) 1991-11-28 1993-06-24 이헌조 디지탈 비데오의 스크램블링 회로
JPH0765148A (ja) * 1993-08-26 1995-03-10 Matsushita Electric Ind Co Ltd 画像処理方法
JPH10105681A (ja) * 1996-09-27 1998-04-24 Dainippon Printing Co Ltd 画像処理方法
JPH1119066A (ja) * 1997-07-08 1999-01-26 Shimadzu Corp 医用画像処理装置
JP2003108994A (ja) * 2001-09-28 2003-04-11 Dainippon Printing Co Ltd 画像作成方法およびシステム
DE10158990C1 (de) * 2001-11-30 2003-04-10 Bosch Gmbh Robert Videoüberwachungssystem
KR100588170B1 (ko) 2003-11-20 2006-06-08 엘지전자 주식회사 감시용 카메라에서의 프라이버시 마스킹 설정방법
JP4402998B2 (ja) 2004-03-29 2010-01-20 三菱電機株式会社 マスキング機能付き監視システムおよびカメラ、並びに該カメラとともに用いられるマスク解除装置
US8212872B2 (en) 2004-06-02 2012-07-03 Robert Bosch Gmbh Transformable privacy mask for video camera images
KR100664350B1 (ko) 2004-12-03 2007-01-02 엘지전자 주식회사 프라이버시 마스크 표시 제어방법
GB2428152A (en) 2005-07-08 2007-01-17 Sharp Kk Processing image data for direction dependent viewing on a display device
US7965268B2 (en) * 2005-07-08 2011-06-21 Sharp Kabushiki Kaisha Display device and liquid crystal display panel
KR101598409B1 (ko) 2009-06-17 2016-03-02 삼성전자주식회사 컨텐츠 암호화 방법, 컨텐츠 복호화 방법 및 이를 적용한 전자기기
KR101378295B1 (ko) 2009-12-18 2014-03-27 한국전자통신연구원 영상의 프라이버시 마스킹 방법 및 장치
KR101204093B1 (ko) * 2010-10-05 2012-11-22 삼성테크윈 주식회사 영상 처리 장치 및 이의 제어방법
JP6209962B2 (ja) * 2013-12-11 2017-10-11 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP6345961B2 (ja) * 2014-03-28 2018-06-20 株式会社メガチップス 画像復号化装置および画像復号化方法
KR101641646B1 (ko) * 2014-11-28 2016-07-21 전자부품연구원 동영상 마스킹 처리방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120035299A (ko) * 2010-10-05 2012-04-16 한국인터넷진흥원 프라이버시 보호를 위한 영상 보호처리 장치와, 그를 이용한 영상 보안 시스템 및 그 방법
KR101458136B1 (ko) * 2014-02-28 2014-11-05 김호 영상 처리 방법, 이를 실행하는 영상 처리 서버, 감시 서버, 영상 처리 시스템 및 이를 저장한 기록 매체
JP2015170954A (ja) * 2014-03-06 2015-09-28 学校法人立命館 暗号装置、復号装置、それらを備えたセキュリティーシステム、それらで実行されるプログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
KR101621723B1 (ko) * 2015-02-13 2016-05-19 경일대학교산학협력단 얼굴 인식 기반 프라이버시 보호를 위한 영상 처리 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체
US20160260235A1 (en) * 2015-03-05 2016-09-08 Novatek Microelectronics Corp. Method for Generating Masking Image Using General Polygonal Mask

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3550505A4 *

Also Published As

Publication number Publication date
CN110023987B (zh) 2022-11-18
US20200007758A1 (en) 2020-01-02
EP3550505A1 (en) 2019-10-09
CN110023987A (zh) 2019-07-16
US10805527B2 (en) 2020-10-13
KR102561306B1 (ko) 2023-07-31
EP3550505A4 (en) 2020-06-10
KR20180062819A (ko) 2018-06-11

Similar Documents

Publication Publication Date Title
WO2018101533A1 (ko) 영상 처리 장치 및 방법
WO2017206456A1 (zh) 一种视频通话中视频图像展示方法及装置
WO2020207030A1 (zh) 视频编码方法、系统、设备及计算机可读存储介质
WO2019103212A1 (ko) 통신망을 이용한 선박내 IoT 스마트 단말의 모니터링 시스템
WO2021071032A1 (en) Device access control method and apparatus for internet of things
WO2018233352A1 (zh) 数据传输方法、装置、终端以及计算机可读存储介质
WO2017030262A1 (en) Photographing apparatus and method for controlling the same
WO2017222301A1 (ko) 부호화 장치 및 방법, 복호화 장치 및 방법
WO2018135906A1 (ko) 카메라 및 카메라의 영상 처리 방법
WO2018090465A1 (zh) 视频监控方法、系统以及监控装置
WO2015046954A1 (ko) 핫스팟 기능이 있는 전자기기에 접속하는 방법 및 장치
WO2018225949A1 (en) Method and apparatus for determining a motion vector
WO2019112308A1 (en) Electronic device, user terminal apparatus, and control method thereof
WO2015037894A1 (ko) 비디오 메모리의 모니터링을 이용한 영상 처리 장치
WO2019147105A1 (ko) 전자 장치와 외부 전자 장치 및 이를 포함하는 시스템
WO2019160191A1 (ko) 영상 처리 장치 및 방법
WO2016072538A1 (ko) 유저 인터페이스를 통한 카메라 장치의 동작 방법
WO2018070557A1 (ko) 영상획득장치 및 그의 구동 방법
WO2017099402A1 (ko) 네트워크 카메라 시스템 및 그 동작 방법
WO2018093198A1 (en) Image processing apparatus and control method thereof
WO2019041183A1 (zh) 一种移动终端防窥屏方法、移动终端及存储介质
WO2018062602A1 (ko) 광각 영상 처리 방법 및 이를 위한 장치
CN111316684A (zh) Wifi共享方法、移动终端及计算机可读存储介质
WO2021107243A1 (ko) 보안 환경에서의 외부 영상 정보 전송 시스템 및 그 방법
WO2016000417A1 (zh) 密码输入方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16922826

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016922826

Country of ref document: EP

Effective date: 20190701