WO2016035367A1 - 復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム - Google Patents

復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム Download PDF

Info

Publication number
WO2016035367A1
WO2016035367A1 PCT/JP2015/058128 JP2015058128W WO2016035367A1 WO 2016035367 A1 WO2016035367 A1 WO 2016035367A1 JP 2015058128 W JP2015058128 W JP 2015058128W WO 2016035367 A1 WO2016035367 A1 WO 2016035367A1
Authority
WO
WIPO (PCT)
Prior art keywords
decoding
key frame
unit
log likelihood
likelihood ratio
Prior art date
Application number
PCT/JP2015/058128
Other languages
English (en)
French (fr)
Inventor
政敏 穂満
滝沢 賢一
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2015556324A priority Critical patent/JP5876201B1/ja
Publication of WO2016035367A1 publication Critical patent/WO2016035367A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Definitions

  • the present invention relates to a decoding apparatus, an imaging system, a decoding method, an encoding / decoding method, and a decoding program for decoding image data encoded by an imaging device.
  • a system using a swallowable capsule endoscope As an imaging system including an imaging device that transmits image data generated by imaging a subject and a receiving device that receives the image data, for example, a system using a swallowable capsule endoscope has been proposed (For example, refer to Patent Document 1).
  • a capsule endoscope is peristalized in a body cavity, for example, the inside of an organ such as the stomach and the small intestine, after being swallowed from the mouth of the subject for observation (examination) and before being spontaneously discharged. It moves according to the movement, and the in-subject image is taken every predetermined time with the movement.
  • the capsule endoscope sequentially transmits image data captured in the body to the outside by wireless communication while moving in the body cavity.
  • the present invention has been made in view of the above, and a decoding device, an imaging system, a decoding method, and the like that can suppress the load and power consumption on the imaging device side even when the frame rate during imaging is increased. It is an object to provide an encoding / decoding method and a decoding program.
  • a decoding apparatus includes a key frame generated by the imaging device in a decoding apparatus that decodes image data encoded by the imaging device, A data acquisition unit that acquires a non-key frame that is generated by the imaging device and that is at least partially encoded, and a characteristic information storage unit that stores characteristic information regarding a pixel value correlation characteristic between frames , A first log likelihood ratio obtained from a non-key frame that has been encoded at least in part, and a second log obtained from the key frame and the characteristic information stored in the characteristic information storage unit. And a decoding unit that performs iterative decoding by a probability propagation method based on the likelihood ratio and estimates a non-key frame before the encoding process. .
  • the decoding apparatus is the decoding apparatus according to the first aspect, wherein the data acquisition unit is generated from the key frame and the non-key frame by the imaging device and is subjected to the encoding process. And a second bit plane generated from the non-key frame and subjected to a thinning process by the imaging device, and the decoding unit obtains the first bit plane obtained from the first bit plane after the encoding process. Based on the one log likelihood ratio and the second log likelihood ratio, the iterative decoding by the probability propagation method is performed to estimate the first bit plane before the encoding process, and the decoding apparatus performs the decimation An interpolation processing unit that performs an interpolation process on the processed second bit plane is provided.
  • the first bit plane is a bit plane to which higher-order bits are assigned
  • the second bit plane is a bit to which lower-order bits are assigned. It is a plane.
  • the characteristic information storage unit stores a plurality of different characteristic information
  • the decoding unit determines the second log likelihood ratio, the key frame, and the The iterative decoding is performed again by changing to a second log likelihood ratio obtained from the characteristic information different from the characteristic information used before among the plurality of characteristic information.
  • the decoding unit includes the first log likelihood ratio and the key acquired by the data acquisition unit immediately before the non-key frame in time series. Forward decoding based on the frame and the second log likelihood ratio obtained from the characteristic information, the first log likelihood ratio, and the non-key frame in time series in the data acquisition unit And performing the iterative decoding in the traceback direction based on the key frame obtained immediately after and the second log likelihood ratio obtained from the characteristic information.
  • an error detection unit that performs parity check on the non-key frame estimated after the iterative decoding by the decoding unit and detects whether or not there is an error. And the decoding unit decodes the non-key frame estimated after iterative decoding in the forward direction or the non-key frame estimated after iterative decoding in the traceback direction based on a detection result by the error detection unit. Is output as
  • the decoding unit is based on the posterior log likelihood ratio after the iterative decoding in the forward direction and the posterior log likelihood ratio after the iterative decoding in the traceback direction.
  • the non-key frame estimated after the forward iterative decoding or the non-key frame estimated after the iterative decoding in the traceback direction is output as a decoding result.
  • the decoding apparatus further includes a display determination unit that performs a determination process as to whether or not to display the non-key frame estimated after the iterative decoding by the decoding unit.
  • an error detection unit that performs parity check on the non-key frame estimated after the iterative decoding by the decoding unit and detects whether or not there is an error.
  • the display determination unit performs the determination process based on a detection result by the error detection unit.
  • the decoding apparatus is characterized in that, in the above-mentioned invention, the display determination unit performs the determination process based on a posterior log likelihood ratio after the iterative decoding by the decoding unit.
  • An imaging system includes an imaging device that encodes and transmits image data generated by imaging a subject, and a decoding device that receives and decodes the encoded image data.
  • the imaging device generates image data by imaging a subject, distributes the image data to key frames and non-key frames, and an encoding process for at least a part of the non-key frames
  • a transmission unit that transmits the key frame and a non-key frame that is encoded on at least a part of the key frame
  • the decoding device includes the key frame and the at least part of the key frame.
  • the encoding process is syndrome encoding using a parity check matrix.
  • the imaging system according to the present invention is characterized in that, in the above invention, the imaging device is a capsule endoscope that can be introduced into a subject.
  • the decoding method is a decoding method executed by a decoding device that decodes image data encoded by an imaging device, and generated by the imaging device and a key frame generated by the imaging device. And a data acquisition step of acquiring a non-key frame that has been encoded at least partially, and a first log likelihood ratio obtained from the non-key frame that has been encoded at least partially Based on the key frame and the second log likelihood ratio obtained from the characteristic information on the pixel value correlation characteristic between the frames, iterative decoding is performed by the probability propagation method, and the non-key frame before the encoding process is determined. And a decoding step for estimation.
  • An encoding / decoding method includes an imaging device that encodes and transmits image data generated by imaging a subject, and a decoding device that receives and decodes the encoded image data.
  • the imaging device distributes image data generated by imaging a subject into key frames and non-key frames, and at least a part of the non-key frames
  • An encoding step for performing an encoding process, and a transmission step for transmitting the key frame and a non-key frame in which the encoding process has been performed on at least a part of the key frame, and the decoding apparatus includes the key frame, and A receiving step of receiving a non-key frame that has been encoded at least in part; and A first log likelihood ratio obtained from a non-key frame partially encoded, and a second log likelihood ratio obtained from characteristic information regarding the key frame and a pixel value correlation characteristic between frames.
  • a decoding program according to the present invention is characterized by causing a decoding device to execute the decoding method.
  • the decoding device Since the decoding device according to the present invention is configured as described above, the following configuration can be employed as an imaging device used in combination with the decoding device. That is, the imaging device performs encoding processing on at least part of non-key frames without encoding key frames in image data generated by imaging. Then, the imaging device transmits these key frames and non-key frames. For this reason, the amount of information of image data to be transmitted can be reduced. Further, in the decoding apparatus according to the present invention, the second logarithm obtained from the first log likelihood ratio obtained from the non-keyframe subjected to at least a part of the encoding process, the unencoded keyframe and the characteristic information. Based on the likelihood ratio, iterative decoding is performed by the probability propagation method.
  • the imaging system according to the present invention includes the above-described decoding device, the same effects as the above-described decoding device can be obtained. Since the decoding method according to the present invention is a decoding method performed by the above-described decoding device, the same effect as that of the above-described decoding device is obtained. Since the encoding / decoding method according to the present invention is an encoding / decoding method performed by the above-described imaging system, the same effect as that of the above-described imaging system can be obtained. Since the decoding program according to the present invention is a program executed by the above-described decoding device, the same effect as the above-described decoding device can be obtained.
  • FIG. 1 is a block diagram showing an imaging system according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing an example of the first and second bit planes according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram showing an example of the encoding process according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing an example of the thinning process according to Embodiment 1 of the present invention.
  • FIG. 5A is a diagram showing an example of characteristic information according to Embodiment 1 of the present invention.
  • FIG. 5B is a diagram showing an example of characteristic information according to Embodiment 1 of the present invention.
  • FIG. 1 is a block diagram showing an imaging system according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing an example of the first and second bit planes according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram showing an example of the encoding process according to Embodiment
  • FIG. 6 is a diagram showing an example of iterative decoding (probability propagation method) according to Embodiment 1 of the present invention.
  • FIG. 7A is a diagram showing an example of interpolation processing according to Embodiment 1 of the present invention.
  • FIG. 7B is a diagram showing an example of the interpolation processing according to Embodiment 1 of the present invention.
  • FIG. 7C is a diagram showing an example of interpolation processing according to Embodiment 1 of the present invention.
  • FIG. 7D is a diagram showing an example of interpolation processing according to Embodiment 1 of the present invention.
  • FIG. 7E is a diagram showing an example of interpolation processing according to Embodiment 1 of the present invention.
  • FIG. 7A is a diagram showing an example of interpolation processing according to Embodiment 1 of the present invention.
  • FIG. 7B is a diagram showing an example of the interpolation processing according to Embodiment 1 of the present invention.
  • FIG. 7C
  • FIG. 8 is a flowchart showing the encoding / decoding method according to Embodiment 1 of the present invention.
  • FIG. 9 is a flowchart showing a decoding process according to Embodiment 1 of the present invention.
  • FIG. 10 is a flowchart showing an encoding / decoding method according to Embodiment 2 of the present invention.
  • FIG. 11 is a block diagram showing an imaging system according to Embodiment 3 of the present invention.
  • FIG. 12 is a flowchart showing an encoding / decoding method according to Embodiment 3 of the present invention.
  • FIG. 13 is a schematic diagram showing a capsule endoscope system according to the fourth embodiment of the present invention.
  • FIG. 14 is a block diagram showing a decoding apparatus according to Embodiment 4 of the present invention.
  • FIG. 1 is a block diagram showing an imaging system 1 according to Embodiment 1 of the present invention. As shown in FIG. 1, the imaging system 1 includes an imaging device 3 and a decoding device 4 that wirelessly communicate moving image data via a wireless transmission system 2.
  • the imaging device 3 encodes moving image data generated by imaging a subject and wirelessly transmits it via the wireless transmission system 2.
  • the imaging device 3 includes an imaging unit 31, a control unit 32, a transmission unit 33, and the like. Under the control of the control unit 32, the imaging unit 31 captures a subject at, for example, a frame rate of 30 frames per second to generate moving image data, and distributes the moving image data into key frames and non-key frames.
  • the imaging unit 31 includes an imaging element 311, a signal processing unit 312, a gray encoding unit 313, a distribution unit 314, and the like.
  • the image sensor 311 is driven by an image sensor drive circuit (not shown) and converts incident light into an electrical signal to form an image.
  • the imaging element driving circuit drives the imaging element 311 to acquire analog signal image data, and outputs the analog signal image data to the signal processing unit 312.
  • the signal processing unit 312 performs predetermined signal processing such as sampling, amplification, and A / D (Analog to Digital) conversion on the image data of the analog signal output from the image sensor 311, thereby converting the digital image data. It is generated and output to the gray encoder 313.
  • the gray encoding unit 313 performs gray encoding on the image data (moving image frame sequence) from the signal processing unit 312. For example, the gray encoding unit 313 sets the pixel value “6 (“ 0110 ”in binary display)” of each pixel of the image data to the gray code “0101” and the pixel value “7 (“ 0111 ”in binary display). ) ”Is gray-coded to“ 0100 ”, and the pixel value“ 8 (binary display “1000”) ”is gray-coded to gray code“ 1100 ”.
  • the Gray code has a characteristic that data always changes by only 1 bit when changing from a certain value to an adjacent value.
  • the sorting unit 314 sorts the image data (moving image frame sequence) gray-coded by the gray coding unit 313 into key frames and non-key frames. For example, the distribution unit 314 performs distribution so that a key frame is generated with a frequency of one frame every few frames, and the rest are non-key frames. Then, the distribution unit 314 outputs the key frame to the transmission unit 33 and outputs the non-key frame to the control unit 32.
  • the control unit 32 includes a CPU (Central Processing Unit) and the like, and controls the operation of the entire imaging device 3.
  • the control unit 32 includes a bit plane generation unit 321, an encoding unit 322, a thinning processing unit 323, and the like.
  • the bit plane generation unit 321 receives the non-key frame from the distribution unit 314 and decomposes it into first and second bit planes for each frame. Then, the bit plane generation unit 321 outputs the first bit plane to the encoding unit 322, and outputs the second bit plane to the thinning processing unit 323.
  • FIG. 2 is a diagram showing an example of the first and second bit planes according to Embodiment 1 of the present invention.
  • FIG. 2 illustrates a case where the gray code corresponding to the pixel value of each pixel of the non-key frame is represented by 8 bits.
  • the bit plane generating unit 321 is configured to assign the non-key frame to the first bit in which 4 bits are assigned in order from the upper bit as illustrated in FIG.
  • the plane is decomposed into a second bit plane to which 4 bits are assigned in order from the lower bits.
  • the number of bits to be assigned is not limited to the above-described 4 bits as long as the first bit plane includes the most significant bit.
  • the second bit plane includes the least significant bit
  • the number of bits to be allocated is not limited to the above-described 4 bits.
  • the encoding unit 322 receives the first bit plane from the bit plane generation unit 321 and performs an encoding process on the first bit plane. Specifically, the encoding unit 322, when the gray code (bit string) of one pixel in the input first bit plane is xi , as shown in the following equation (1), (n ⁇ k) rows Syndrome encoding is performed using a low density parity check matrix H of ⁇ n columns. Then, the encoding unit 322 performs syndrome encoding on all the pixels of the first bit plane, and outputs the first bit plane (syndrome C) after the encoding process to the transmission unit 33.
  • the coding rate is k / n
  • the compression rate is (n ⁇ k) / n.
  • FIG. 3 is a diagram showing an example of the encoding process according to Embodiment 1 of the present invention.
  • gray code x i is exemplified in the case of 6bit).
  • the syndrome encoding shown in Equation (1) can be easily performed. For example, when the gray code x i (6 bits in the example of FIG. 3) of one pixel included in the first bit plane is “101011”, the gray code x i is changed to a variable node as shown in FIG. Assign to v i respectively. Then, paying attention to each of the check nodes c j , binary addition of all the variable nodes v i connected at the edge is performed.
  • the check node when focusing on c 1 since the check node variable node connected by edges c 1 v i is a variable node v 1, v 2, v 3 , variable node v 1, v 2 , v values of 3 "1" to obtain a value of "0" by performing a binary addition of "1" and "0". Then, “0101” calculated at each check node c j is syndrome C. That is, in the case of using a low density parity check matrix H as in Equation (2) is Gray code x i of 6bit compression syndrome C of 4bit (compression ratio: 2/3) is the the fact.
  • the low-density parity check matrix H is not limited to a parity check matrix having a coding rate of 1/3 and a compression rate of 2/3 as shown in Equation (2), but a coding rate of 1/2 and a compression rate of 1/2. Or a parity check matrix having a coding rate of 2/3 and a compression rate of 1/3 may be employed. It is preferable to employ a parity check matrix with a compression rate of 33% to 50%.
  • the decimation processing unit 323 receives the second bit plane from the bit plane generation unit 321 and performs bit decimation processing on the second bit plane. Specifically, as will be described later, the thinning-out process deletes all second bit planes of non-key frames that are adjacent to key frames in time series, and second bits of non-key frames that are not adjacent to key frames. For the plane, some bits are thinned out. Then, the thinning processing unit 323 outputs the second bit plane after the thinning processing to the transmission unit 33.
  • FIG. 4 is a diagram showing an example of the thinning process according to Embodiment 1 of the present invention.
  • the frames captured by the imaging unit 31 are arranged in time series in order from the left side, and the distribution unit 314 uses a key frame at a frequency of 1 in 5 frames (key In this example, the ratio of four non-key frames to one frame is illustrated. That is, in FIG. 4, six frames are illustrated, key frames are illustrated in the first and sixth frames, and non-key frames are illustrated in the second to fifth frames.
  • FIG. 4 illustrates a case where the bit plane generation unit 321 generates a second bit plane to which 4 bits are assigned in order from the lower bits, and each bit (4 bits) of one pixel included in the second bit plane. The state which arranged in the up-down direction is illustrated.
  • the thinning processing unit 323 deletes all data of non-key frames (second non-key frames (second bit planes) in the second and fifth frames in the example of FIG. 4) adjacent to the key frames. (Indicated by hatching in FIG. 4). In addition, the thinning processing unit 323 performs only the data of some bits of the non-key frame (in the example of FIG. 4, the third and fourth frame non-key frames (second bit plane)) separated from the key frame. It is left (indicated by white in FIG. 4), and data of other bits is deleted. For example, in the example of FIG.
  • the thinning processing unit 323 is separated by one bit from the most significant bit (fourth bit from the least significant bit) and the most significant bit in the non-key frame (second bit plane) of the third frame. Only the data of each bit (second bit from the lower bits) is left. In addition, the thinning processing unit 323 performs only the data of the bit (the third bit from the lower bit) different from the bit left in the third frame in the non-key frame (second bit plane) of the fourth frame. leave. That is, the thinning processing unit 323 performs thinning processing on non-key frames (second bit planes) so as to leave different bits of data between adjacent frames (third and fourth frames). Note that the thinning-out processing unit 323 deletes the data of the least significant bit in both the third and fourth non-key frames (second bit plane).
  • the transmission unit 33 controls the key frame from the distribution unit 314, the first bit plane (syndrome C) after the encoding process from the encoding unit 322, and the thinning out from the decimation processing unit 323 under the control of the control unit 32.
  • the processed second bit plane is converted into a data stream.
  • the transmission unit 33 transmits the moving image data converted into a data stream to the decoding device 4 via the wireless transmission system 2.
  • the decoding device 4 receives and decodes moving image data (data stream) transmitted from the imaging device 3 via the wireless transmission system 2.
  • the decoding device 4 includes a receiving unit 41, a memory unit 42, a control unit 43, and the like.
  • the receiving unit 41 includes an antenna for receiving moving image data transmitted from the imaging device 3 via the wireless transmission system 2.
  • the receiving unit 41 sequentially receives moving image data under the control of the control unit 43 and outputs the moving image data to the memory unit 42.
  • moving image data received by the receiving unit 41 is referred to as received data.
  • the receiving unit 41 described above functions not only as a receiving unit according to the present invention but also as a data acquiring unit according to the present invention.
  • the characteristic information is calculated from moving image data (moving image frame sequence) generated by imaging in advance (for example, imaging at a frame rate of 30 frames per second), and how the pixel value (gray code) changes between frames. This is information representing the probability distribution with probability distribution.
  • the memory unit 42 has characteristic information calculated from one moving image data (time-continuous moving image frame sequence captured within a predetermined period) as the characteristic information described above. Only remember. For example, as shown in FIG. 5A, a pixel value (gray code) for the upper 4 bits of one pixel (coordinate (1, 1)) in a temporally previous frame among two frames arranged in time series.
  • the log-likelihood ratio LLR (Log-Likelihood Ratio) has a probability P (0) that a certain bit is “0” and a probability P (1 that is “1”, as shown in the following equation (3). ) And the logarithm of the ratio.
  • the log likelihood ratio is 0 or more, it can be evaluated that the bit corresponding to the value of the log likelihood ratio is “0”, and when the log likelihood ratio is smaller than 0, the log likelihood It can be evaluated that the bit corresponding to the value of the degree ratio is “1”.
  • the absolute value of the log likelihood ratio is larger, it is possible to evaluate with high reliability whether the value of the bit corresponding to the value of the log likelihood ratio is “0” or “1”.
  • the second log likelihood ratio calculation unit 431B sends the second log likelihood ratio q i sent from one variable node v i to one check node c j along the edge.
  • m is not considered
  • the first log likelihood ratio t j, m ′ sent from the transmission destination check node c j to the transmission source variable node v i is not taken into consideration.
  • the first variable node v order to update the second log likelihood ratio q 1, 1 to send to the first check node c 1 along the edge from 1, 1-th check node c 1 from the first variable
  • the first log likelihood ratio t 1,1 sent to node v 1 is not taken into account.
  • Equation (5) s j is the value of the j-th bit of the read syndrome C.
  • the first log likelihood ratio calculation unit 431A sends the first log likelihood ratio t j sent from one check node c j to one variable node v i along the edge.
  • m ′ the second log likelihood ratio q i, m sent from the destination variable node v i to the source check node c j is not taken into consideration.
  • the first check from the first variable node v 1 is performed.
  • the second log likelihood ratio q 1,1 sent to node c 1 is not taken into account.
  • the display determination unit 433 determines not to be a display target through the determination process, the display determination unit 433 adds a non-display target flag indicating a non-display target to the non-key frame.
  • a non-display target flag indicating a non-display target to the non-key frame.
  • the interpolation processing unit 434 reads out the second bit plane after the thinning process included in the received data from the memory unit 42 and the immediately preceding and following key frames in time series with respect to the second bit plane (non-key frame). Then, the interpolation processing unit 434 performs an interpolation process on the second bit plane after the thinning process.
  • FIGS. 7A to 7E are diagrams showing an example of interpolation processing according to Embodiment 1 of the present invention.
  • 7A to 7E correspond to FIG. 4 and illustrate an interpolation process for the second bit plane after the thinning process shown in FIG.
  • FIG. 7A shows a state before the thinning process
  • FIG. 7B shows a state after the thinning process (data for 6 frames included in the received data).
  • the interpolation processing unit 434 reads two second bit planes that are adjacent frames in time series (third and fourth frames in the examples of FIGS. 7A to 7E) from the memory unit 42. As shown in FIG.
  • the interpolation processing unit 434 performs time-sequentially adjacent frames (key frame and frame) for the two second bit planes that are the remaining frames (second and fifth frames in the examples of FIGS. 7A to 7E). Interpolation using non-key frames). Specifically, the interpolation processing unit 434 reads the immediately preceding and immediately following key frames from the memory unit 42 in time series with respect to the two second bit planes (non-key frames) subjected to the copy interpolation and the random interpolation. Then, as shown in FIG. 7E, the interpolation processing unit 434 uses the pixel values (gray codes) for the lower 4 bits in the two previous key frames at the same pixel position and the third and fourth frames.
  • Linear interpolation is performed based on the pixel values (gray codes) of the two second bit planes to generate the second bit planes of the second and fifth frames.
  • the pixel value (gray code) for the lower 4 bits in the immediately preceding key frame is “9 (“ 1101 ”)”
  • the pixel value of the second bit plane in the third frame (gray) Since the code) is “6 (“ 0101 ”)”
  • the second bit plane of the second frame in which the pixel value (gray code) is “8 (“ 1100 ”)” is generated by linear interpolation.
  • the pixel value (gray code) of the second bit plane of the fourth frame is “6 (“ 0101 ”)”, and the pixel value (gray code) for the lower 4 bits of the immediately following key frame is “4”. (“0110”) ”, the second bit plane of the fifth frame with the pixel value (gray code) set to“ 5 (“0111”) ”is generated by linear interpolation.
  • the gray code (FIG. 7A) of the second bit plane before the thinning process and the gray code (FIG. 7E) of the second bit plane after the interpolation process become substantially the same.
  • the synthesizing unit 435 reconstructs a non-key frame using the first bit plane estimated by the decoding process in the decoding unit 431 and the second bit plane subjected to the interpolation process in the interpolation processing unit 434. Then, the synthesizing unit 435 reads the key frame included in the received data from the memory unit 42, and creates a moving image file using the key frame and the reconstructed non-key frame.
  • the gray decoding unit 436 performs gray decoding (converting gray codes into pixel values) on the moving image file generated by the synthesis unit 435.
  • FIG. 8 is a flowchart showing the encoding / decoding method according to Embodiment 1 of the present invention.
  • the operation of the imaging device 3 and the operation of the decoding device 4 will be described in this order.
  • the image sensor 311 starts imaging of the subject (for example, imaging at a frame rate of 30 frames per second) under the control of the control unit 32 (step S1).
  • the distribution unit 314 distributes the moving image frame sequence imaged by the image sensor 311 and gray-coded through the signal processing unit 312 and the gray coding unit 313 into a key frame and a non-key frame.
  • the frame is output to the transmission unit 33, and the non-key frame is output to the bit plane generation unit 321 (step S2: distribution step).
  • bit plane generation unit 321 receives the non-key frame from the distribution unit 314, decomposes the first bit plane into the first and second bit planes for each frame, and encodes the first bit plane into the encoding unit 322. And the second bit plane is output to the thinning processing unit 323 (step S3: bit plane generation step).
  • the encoding unit 322 receives the first bit plane from the bit plane generation unit 321 and performs encoding processing (syndrome encoding) on the first bit plane (step S4: encoding).
  • the thinning processing unit 323 receives the second bit plane from the bit plane generation unit 321 and performs a thinning process on the second bit plane (step S5).
  • the transmission unit 33 controls the key frame from the distribution unit 314, the first bit plane (syndrome C) after the encoding process from the encoding unit 322, and the thinning process under the control of the control unit 32.
  • the second bit plane after the thinning process from the unit 323 is converted into a data stream.
  • the transmission unit 33 transmits the moving image data converted into a data stream to the decoding device 4 via the wireless transmission system 2 (step S6: transmission step).
  • the control unit 43 reads the decoding program from the memory unit 42 and executes the following processing according to the decoding program.
  • the receiving unit 41 sequentially receives moving image data from the imaging device 3 under the control of the control unit 43, and outputs it to the memory unit 42 (step S7: reception step, data acquisition step).
  • the memory unit 42 stores the received data sequentially.
  • the interpolation processing unit 434 immediately before and after the second bit plane after the thinning process included in the received data from the memory unit 42 and the second bit plane (non-key frame) in time series. Read the key frame. Then, the interpolation processing unit 434 performs an interpolation process on the second bit plane after the thinning process (step S8: interpolation process step).
  • step S16 the synthesizing unit 435 receives the first bit plane after the decoding process (step S9) by the decoding unit 431 and the interpolation process performed in step S8. A non-key frame is reconstructed with the 2-bit plane (step S17). After step S17, the synthesizing unit 435 reads the key frame included in the received data from the memory unit 42, and creates a moving image file using the key frame and the reconstructed non-key frame (step S18). Then, the gray decoding unit 436 performs gray decoding on the moving image file generated in step S18 (step S19).
  • the imaging device 3 does not encode the key frame in the moving image data generated by imaging, and the non-key frame (first and second bits). For the plane), the encoding process and the thinning process are performed. Then, the imaging device 3 converts these key frames and non-key frames into data streams and transmits them. For this reason, the amount of information of the moving image data to be transmitted can be reduced. Further, the data length of the moving image data to be transmitted can be made the same. Furthermore, the confidentiality of moving image data can be improved by performing an encoding process.
  • the first log likelihood ratio t j, 0 that is the initial value obtained from the first bit plane after the encoding process, the initial value obtained from the unencoded key frame and the characteristic information
  • iterative decoding is performed by the probability propagation method.
  • a simple encoding system can be adopted as the encoding system implemented on the imaging device 3 side.
  • the encoding process just because it uses syndrome encoding using low density parity check matrix H, the action of low-density parity check matrix H with respect to the bit string x i Well, the calculation amount of the encoding process is very small.
  • the imaging system 1 that can suppress the load and power consumption on the imaging device 3 side even when the frame rate during imaging is increased (for example, when the frame rate is 30 frames per second).
  • the decoding device 4, the encoding / decoding method, the decoding method, and the decoding program can be realized.
  • the imaging device 3 performs the encoding process on the first bit plane to which the higher-order bits having a high influence on the image are assigned among the non-key frames, and the lower-order bits having a low influence are assigned to the first bit plane. Thinning processing is performed on the allocated second bit plane. For this reason, it is possible to reduce the amount of information of moving image data to be transmitted while suppressing deterioration in image quality with respect to moving image data generated by imaging.
  • the decoding device 4 since the decoding device 4 performs iterative decoding, it is possible to correct errors that occur when moving image data is transmitted / received and stored.
  • the decoding device 4 uses the second log likelihood as an initial value by using the key frame immediately preceding the target frame in time series, that is, the key frame having high correlation with the target frame, and the characteristic information.
  • the ratio q i, 0 is calculated, and iterative decoding is performed using the second log likelihood ratio q i, 0 . For this reason, the first bit plane before the encoding process can be estimated with high accuracy.
  • the immediately preceding and immediately following key frames having a high correlation with non-key frames are used, so that the second bit plane before the thinning process can be generated with high accuracy.
  • the decoding device 4 corrects an error by iterative decoding (estimates the first bit plane with high accuracy), detects an error by a parity check, and detects a non-key frame in which the error is detected even at one pixel position.
  • a non-display target flag is added to prevent display. For this reason, when a moving image file is reproduced and displayed, it is possible to realize display in which image quality deterioration is suppressed with respect to moving image data generated by the imaging device 3.
  • the memory unit 42 stores a plurality of characteristic information respectively calculated from a plurality of moving image data as the characteristic information. That is, the plurality of pieces of characteristic information are respectively calculated from a plurality of pieces of moving image data having different imaged time zones and imaged locations. For this reason, the probability distribution as illustrated in FIG. 5B differs between the plurality of characteristic information. Then, as shown below, the decoding unit 431 changes the second log likelihood ratio q i, 0 that becomes an initial value using a plurality of pieces of characteristic information when a predetermined condition is satisfied, and performs the change. Iterative decoding is performed using the second log likelihood ratio q i, 0 .
  • Step S20 is carried out when it is determined as “Yes” in Step S11 as a result of the parity check (Step S10), that is, when it is determined that there is an error (corresponding to the case where the predetermined condition is satisfied). Is done.
  • the control unit 43 determines whether or not all the characteristic information used for calculating the second log likelihood ratio q i, 0 serving as the initial value stored in the memory unit 42 has been used. If it is determined as “No” in step S20, the control unit 43 (second log likelihood ratio calculation unit 431B) uses characteristic information different from the characteristic information used before, as in step S9A.
  • the second log likelihood ratio q i, 0 that is the initial value of the Gray code at the target pixel position is calculated, and the previously used second log likelihood ratio q i, 0 is calculated as the second log likelihood ratio calculated q i, 0 is changed (step S21).
  • the decoding unit 431 proceeds to step S9C, and the second log likelihood ratio q i, 0 that is the initial value changed in step S21 and the first log likelihood that is the initial value calculated in step S9B.
  • a new likelihood exchange is performed using the ratio t j, 0 .
  • step S20 when it is determined as “Yes” in step S20, that is, when it is determined that all the characteristic information used for calculating the second log likelihood ratio q i, 0 as the initial value is used, the control unit 43 Shifts to step S12 to add a non-display target flag to the target frame.
  • the decoding device 4 changes the second log likelihood ratio q i, 0 that becomes the initial value only when an error is detected as a result of the parity check (step S10).
  • the second log likelihood ratio q i, 0 as an initial value is calculated using each of all the characteristic information stored in the memory unit 42, and all the second log likelihood ratios q i, 0 are used. Each of them may be configured to perform iterative decoding.
  • the decoding device 4 creates a moving image file by using the first bit plane that is determined to be error-free by the parity check in all the pixels among the first bit planes estimated after each iterative decoding. That's fine.
  • FIG. 11 is a block diagram showing an imaging system 1A according to Embodiment 3 of the present invention.
  • the display determination unit 433 performs a determination process as to whether or not to display a non-key frame after the decoding process by the decoding unit 431 based on the result of the parity check (step S10).
  • step S10 the result of the parity check
  • the error detection unit 432 is omitted from the imaging system 1 (FIG. 1) described in the first embodiment.
  • a decoding device 4A control unit 43A to which a display determination unit 433A in which some functions of the display determination unit 433 are changed is added. Then, the display determination unit 433A performs the determination process based on the posterior log likelihood ratio after iterative decoding by the decoding unit 431 as described below.
  • Step S22 is performed after the decoding process (step S9).
  • the display determination unit 433A compares the absolute value of the posterior log likelihood ratio after iterative decoding in step S9 with the first threshold value for each bit of the gray code (bit string) at the target pixel position. .
  • the display determination unit 433A determines whether or not the number of bits for which the absolute value of the posterior log likelihood ratio is less than the first threshold is greater than the second threshold (step S23). If it is determined as “Yes” in step S23, the display determination unit 433A proceeds to step S12 and adds a non-display target flag to the target frame. On the other hand, when it determines with "No" in step S23, 43 A of control parts transfer to step S14.
  • FIG. 13 is a schematic diagram showing a capsule endoscope system 1B according to Embodiment 4 of the present invention.
  • the imaging system 1 described in the first embodiment is applied to a capsule endoscope system 1B.
  • the capsule endoscope system 1B is a system that acquires an in-vivo image inside the subject 100 using a swallowable capsule endoscope 3B. As shown in FIG.
  • the capsule endoscope system 1B includes a receiving device 5, a decoding device 4B, a portable recording medium 6 and the like in addition to the capsule endoscope 3B.
  • the recording medium 6 is a portable recording medium for transferring data between the receiving device 5 and the decoding device 4B, and is configured to be detachable from the receiving device 5 and the decoding device 4B.
  • the capsule endoscope 3B is a capsule endoscope apparatus formed in a size that can be introduced into the organ of the subject 100, and has the same function as the imaging device 3 described in the first embodiment. And a configuration (imaging unit 31, control unit 32, and transmission unit 33). Specifically, the capsule endoscope 3B is introduced into the organ of the subject 100 by oral ingestion or the like, and sequentially captures in-vivo images while moving through the organ by peristalsis or the like (for example, a frame rate of 30 frames per second). ). Then, the capsule endoscope 3B distributes the moving image data generated by imaging to the key frame and the non-key frame in the same manner as the imaging device 3 described in the first embodiment. Further, the capsule endoscope 3B performs encoding processing and thinning processing on the non-key frame (first and second bit planes) without encoding the key frame, and the key frame and the non-key frame. Is sent as a data stream.
  • the receiving apparatus 5 includes a plurality of receiving antennas 5a to 5h, and moving image data (data stream) from the capsule endoscope 3B inside the subject 100 via at least one of the plurality of receiving antennas 5a to 5h. ). Then, the receiving device 5 accumulates the received moving image data in the recording medium 6 inserted in the receiving device 5.
  • the receiving antennas 5a to 5h may be arranged on the body surface of the subject 100 as shown in FIG. 13, or may be arranged on a jacket worn by the subject 100. Further, the number of reception antennas provided in the reception device 5 may be one or more, and is not particularly limited to eight.
  • FIG. 14 is a block diagram showing a decoding device 4B according to Embodiment 4 of the present invention.
  • the decoding device 4B is configured as a workstation that acquires moving image data in the subject 100 and decodes the acquired moving image data, and as illustrated in FIG. 14, the decoding device 4 described in the first embodiment described above. And have substantially the same functions and configurations (the memory unit 42 and the control unit 43).
  • the decoding device 4B includes a reader / writer 44, an input unit 45 such as a keyboard and a mouse, a display unit 46 such as a liquid crystal display, and the like.
  • the reader / writer 44 takes in moving image data stored in the recording medium 6 under the control of the control unit 43 when the recording medium 6 is inserted into the reader / writer 44. That is, the reader / writer 44 functions as a data acquisition unit according to the present invention. Further, the reader / writer 44 transfers the captured moving image data to the control unit 43. The moving image data transferred to the control unit 43 is stored in the memory unit 42. And the control part 43 implements a decoding process, an interpolation process, etc. similarly to the decoding apparatus 4 demonstrated in Embodiment 1 mentioned above, and produces a moving image file. Further, the control unit 43 displays a moving image (in-vivo image of the subject 100) based on the moving image file on the display unit 46 in response to an input operation to the input unit 45 by the user.
  • a moving image in-vivo image of the subject 100
  • the decoding unit 431 calculates the second log likelihood ratio q i, 0 that is the initial value using the key frame immediately before the target frame in time series.
  • iterative decoding (hereinafter referred to as forward iterative decoding) is performed using the second log likelihood ratio q i, 0 .
  • the decoding unit 431 uses the second logarithmic likelihood that becomes an initial value using a key frame “immediately after” in time series with respect to the target frame, in addition to forward iterative decoding.
  • the degree ratio q i, 0 is calculated, and iterative decoding using the second log likelihood ratio q i, 0 (hereinafter referred to as iterative decoding in the traceback direction) is also performed.
  • the control unit 43 uses the first bit plane that is determined to have no error in the parity check in all the pixels among the first bit planes estimated after each iterative decoding in the forward direction and the trace back direction. Create a video file.
  • both of the first bit planes estimated after each iterative decoding in the forward direction and the traceback direction are determined to be error-free or error-free by the parity check, which first bit plane is adopted. It doesn't matter.
  • the conditions described in the third embodiment described above (the absolute value of the posterior log likelihood ratio is the first value) for all pixels.
  • the moving image file may be created using the first bit plane that satisfies the condition that the number of bits that are less than the threshold is greater than the second threshold.
  • both of the first bit planes estimated after each iterative decoding in the forward direction and the traceback direction satisfy the above-described conditions or when the above-described conditions are not satisfied, which first bit plane is selected. You may adopt.
  • the decoding unit 431 performs iterative decoding in both the forward direction and the traceback direction.
  • the ratio of the key frame to the non-key frame is 1: 4, that is, the case where the key frame is set to a frequency of one frame every five frames (for example, the case shown in FIG. 4).
  • the second and third non-key frames are the first key frame (in time series) rather than the sixth frame (in the time series, “immediately after” key frame). Since “the key frame immediately before” is closer in time, the correlation is high.
  • the decoding device 4B that functions as a workstation is provided with the function as the decoding device according to the present invention, but the present invention is not limited to this.
  • an external cloud computer has the function of the decoding device according to the present invention, and the moving image data from the capsule endoscope 3B received by the receiving device 5 is transmitted to the cloud computer, and the cloud computer is transmitted to the cloud computer.
  • the cloud computer encodes the decoded moving image data into JPEG or MPEG that is easy to be decoded by the user's device, and distributes it to the user.
  • the imaging device 3 (capsule endoscope 3B) generates the first and second bit planes from the non-key frame, and encodes the first bit plane.
  • the present invention is not limited to this.
  • the entire non-key frame may be encoded without dividing the non-key frame into first and second bit planes. That is, in the imaging device 3 (capsule endoscope 3B), a configuration in which the bit plane generation unit 321 and the thinning processing unit 323 are omitted may be employed.
  • the decoding device 4 (4A) may be configured to omit the interpolation processing unit 434.
  • the function of performing the encoding process and the thinning process and the function of performing the decoding process and the interpolation process are configured by software. However, the present invention is not limited to this, These functions may be configured by hardware. Furthermore, in the first to fourth embodiments described above, the imaging device 3 (capsule endoscope 3B) performs the encoding process (step S4) before the thinning process (step S5). Not limited to. For example, the thinning process may be performed before the encoding process, or the encoding process and the thinning process may be performed in parallel.
  • the decoding device 4 performs the interpolation processing (step S8) prior to the decoding processing (step S9), but is not limited thereto.
  • the decoding process may be performed before the interpolation process, or the interpolation process and the decoding process may be performed in parallel.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 復号装置4は、撮像デバイス3にて生成されたキーフレーム、及び撮像デバイス3にて生成されるとともに少なくとも一部に符号化処理が施された非キーフレームを取得する受信部41と、フレーム間の画素値相関特性に関する特性情報を記憶するメモリ部42と、少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比とキーフレーム及び特性情報から得られる第2対数尤度比とに基づいて確率伝播法による繰り返し復号を実施し、符号化処理前の非キーフレームを推定する復号部431とを備える。

Description

復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム
 本発明は、撮像デバイスにて符号化された画像データを復号する復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラムに関する。
 従来、被写体を撮像することにより生成した画像データを送信する撮像デバイスと当該画像データを受信する受信装置とを備えた撮像システムとして、例えば、飲み込み型のカプセル型内視鏡を用いたシステムが提案されている(例えば、特許文献1参照)。
 このようなカプセル型内視鏡は、観察(検査)のために被検体の口から飲み込まれた後、自然排出されるまでの間、体腔内、例えば胃、小腸等の臓器の内部をその蠕動運動に従って移動し、移動に伴い、所定時間毎に被検体内画像の撮像を行う。
 また、カプセル型内視鏡は、体腔内を移動する間、体内で撮像した画像データを順次、無線通信により外部に送信する。
特開2006-293237号公報
 ところで、例えば被検体内画像を充分に取得することを目的として、撮像時のフレームレートを大きくした場合には、送信する情報量も多くなる。このため、撮像した画像データに圧縮符号化処理を施して、送信する情報量を少なくする必要がある。
 このような圧縮符号化方式としてMPEG(Moving Picture Experts Group)やJPEG(Joint Photographic Experts Group)が知られている。しかしながら、このような圧縮符号化方式を採用した場合には、圧縮符号化するための計算量が多く、カプセル型内視鏡(撮像デバイス)側の負荷及び消費電力が大きくなってしまう、という問題がある。
 本発明は、上記に鑑みてなされたものであって、撮像時のフレームレートを大きくした場合であっても撮像デバイス側の負荷及び消費電力を抑えることができる復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る復号装置は、撮像デバイスにて符号化された画像データを復号する復号装置において、前記撮像デバイスにて生成されたキーフレーム、及び前記撮像デバイスにて生成されるとともに少なくとも一部に符号化処理が施された非キーフレームを取得するデータ取得部と、フレーム間の画素値相関特性に関する特性情報を記憶する特性情報記憶部と、前記少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と、前記キーフレーム、及び前記特性情報記憶部に記憶された前記特性情報から得られる第2対数尤度比とに基づいて、確率伝播法による繰り返し復号を実施し、前記符号化処理前の非キーフレームを推定する復号部とを備えることを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記データ取得部は、前記キーフレーム、前記撮像デバイスにて前記非キーフレームから生成されるとともに前記符号化処理が施された第1ビットプレーン、及び前記撮像デバイスにて前記非キーフレームから生成されるとともに間引き処理が施された第2ビットプレーンを取得し、前記復号部は、前記符号化処理後の第1ビットプレーンから得られる前記第1対数尤度比と前記第2対数尤度比とに基づいて確率伝播法による前記繰り返し復号を実施して、前記符号化処理前の第1ビットプレーンを推定し、当該復号装置は、前記間引き処理後の第2ビットプレーンに対して補間処理を施す補間処理部を備えることを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記第1ビットプレーンは、上位側のビットが割り当てられたビットプレーンであり、前記第2ビットプレーンは、下位側のビットが割り当てられたビットプレーンであることを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記特性情報記憶部は、異なる前記特性情報を複数記憶し、前記復号部は、前記第2対数尤度比を、前記キーフレーム、及び前記複数の特性情報のうち従前に用いた前記特性情報とは異なる前記特性情報から得られる第2対数尤度比に変更して、前記繰り返し復号を再度、実施することを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記復号部は、前記第1対数尤度比と、前記データ取得部にて時系列的に前記非キーフレームの直前に取得された前記キーフレーム、及び前記特性情報から得られる前記第2対数尤度比とに基づく順方向の前記繰り返し復号と、前記第1対数尤度比と、前記データ取得部にて時系列的に前記非キーフレームの直後に取得された前記キーフレーム、及び前記特性情報から得られる前記第2対数尤度比とに基づくトレースバック方向の前記繰り返し復号とを実施することを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記復号部により前記繰り返し復号後に推定された前記非キーフレームに対してパリティ検査を行い、誤りがあるか否かを検出する誤り検出部を備え、前記復号部は、前記誤り検出部による検出結果に基づいて、前記順方向の繰り返し復号後に推定した前記非キーフレーム、または前記トレースバック方向の繰り返し復号後に推定した前記非キーフレームを復号結果として出力することを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記復号部は、前記順方向の繰り返し復号後の事後対数尤度比、及び前記トレースバック方向の繰り返し復号後の事後対数尤度比に基づいて、前記順方向の繰り返し復号後に推定した前記非キーフレーム、または前記トレースバック方向の繰り返し復号後に推定した前記非キーフレームを復号結果として出力することを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記復号部により前記繰り返し復号後に推定された前記非キーフレームを表示対象とするか否かの判定処理を実施する表示判定部を備えることを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記復号部により前記繰り返し復号後に推定された前記非キーフレームに対してパリティ検査を行い、誤りがあるか否かを検出する誤り検出部を備え、前記表示判定部は、前記誤り検出部による検出結果に基づいて、前記判定処理を実施することを特徴とする。
 また、本発明に係る復号装置は、上記発明において、前記表示判定部は、前記復号部による前記繰り返し復号後の事後対数尤度比に基づいて、前記判定処理を実施することを特徴とする。
 また、本発明に係る撮像システムは、被写体を撮像することにより生成した画像データを符号化して送信する撮像デバイスと、符号化された前記画像データを受信して復号する復号装置とを備えた撮像システムにおいて、前記撮像デバイスは、被写体を撮像することにより画像データを生成し、当該画像データをキーフレーム及び非キーフレームに振り分ける撮像部と、前記非キーフレームの少なくとも一部に対して符号化処理を施す符号化部と、前記キーフレーム、及び前記少なくとも一部に符号化処理が施された非キーフレームを送信する送信部とを備え、前記復号装置は、前記キーフレーム、及び前記少なくとも一部に符号化処理が施された非キーフレームを受信する受信部と、フレーム間の画素値相関特性に関する特性情報を記憶する特性情報記憶部と、前記少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と、前記キーフレーム、及び前記特性情報記憶部に記憶された前記特性情報から得られる第2対数尤度比とに基づいて、確率伝播法による繰り返し復号を実施し、前記符号化処理前の非キーフレームを推定する復号部とを備えることを特徴とする。
 また、本発明に係る撮像システムは、上記発明において、前記符号化処理は、パリティ検査行列を用いたシンドローム符号化であることを特徴とする。
 また、本発明に係る撮像システムは、上記発明において、前記撮像デバイスは、被検体内に導入可能とするカプセル型内視鏡であることを特徴とする。
 また、本発明に係る復号方法は、撮像デバイスにて符号化された画像データを復号する復号装置が実行する復号方法において、前記撮像デバイスにて生成されたキーフレーム、及び前記撮像デバイスにて生成されるとともに少なくとも一部に符号化処理が施された非キーフレームを取得するデータ取得ステップと、前記少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と、前記キーフレーム、及びフレーム間の画素値相関特性に関する特性情報から得られる第2対数尤度比とに基づいて、確率伝播法による繰り返し復号を実施し、前記符号化処理前の非キーフレームを推定する復号ステップとを有することを特徴とする。
 また、本発明に係る符号化復号方法は、被写体を撮像することにより生成した画像データを符号化して送信する撮像デバイスと、符号化された前記画像データを受信して復号する復号装置とを備えた撮像システムが行う符号化復号方法において、前記撮像デバイスが、被写体を撮像することにより生成した画像データをキーフレーム及び非キーフレームに振り分ける振り分けステップと、前記非キーフレームの少なくとも一部に対して符号化処理を施す符号化ステップと、前記キーフレーム、及び前記少なくとも一部に符号化処理が施された非キーフレームを送信する送信ステップとを実行し、前記復号装置が、前記キーフレーム、及び前記少なくとも一部に符号化処理が施された非キーフレームを受信する受信ステップと、前記少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と、前記キーフレーム、及びフレーム間の画素値相関特性に関する特性情報から得られる第2対数尤度比とに基づいて、確率伝播法による繰り返し復号を実施し、前記符号化処理前の非キーフレームを推定する復号ステップとを実行することを特徴とする。
 また、本発明に係る復号プログラムは、上記復号方法を復号装置に実行させることを特徴とする。
 本発明に係る復号装置が上記のように構成されているので、当該復号装置と組み合わせて用いる撮像デバイスとして、以下の構成を採用することができる。
 すなわち、撮像デバイスは、撮像することにより生成した画像データのうち、キーフレームについては符号化することなく、非キーフレームについては少なくとも一部に符号化処理を施す。そして、撮像デバイスは、これらキーフレーム及び非キーフレームを送信する。このため、送信する画像データの情報量を少なくすることができる。
 また、本発明に係る復号装置では、少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と符号化されていないキーフレーム及び特性情報から得られる第2対数尤度比とに基づいて、確率伝播法により繰り返し復号を実施する。このため、撮像デバイス側で実施される符号化方式として、単純な符号化方式を採用することができる。
 以上のことから、撮像時のフレームレートを大きくした場合であっても撮像デバイス側の負荷及び消費電力を抑えることが可能な復号装置を実現することができる、という効果を奏する。
 本発明に係る撮像システムは、上述した復号装置を備えているため、上述した復号装置と同様の効果を奏する。
 本発明に係る復号方法は、上述した復号装置が行う復号方法であるため、上述した復号装置と同様の効果を奏する。
 本発明に係る符号化復号方法は、上述した撮像システムが行う符号化復号方法であるため、上述した撮像システムと同様の効果を奏する。
 本発明に係る復号プログラムは、上述した復号装置にて実行されるプログラムであるため、上述した復号装置と同様の効果を奏する。
図1は、本発明の実施の形態1に係る撮像システムを示すブロック図である。 図2は、本発明の実施の形態1に係る第1,第2ビットプレーンの一例を示す図である。 図3は、本発明の実施の形態1に係る符号化処理の一例を示す図である。 図4は、本発明の実施の形態1に係る間引き処理の一例を示す図である。 図5Aは、本発明の実施の形態1に係る特性情報の一例を示す図である。 図5Bは、本発明の実施の形態1に係る特性情報の一例を示す図である。 図6は、本発明の実施の形態1に係る繰り返し復号(確率伝播法)の一例を示す図である。 図7Aは、本発明の実施の形態1に係る補間処理の一例を示す図である。 図7Bは、本発明の実施の形態1に係る補間処理の一例を示す図である。 図7Cは、本発明の実施の形態1に係る補間処理の一例を示す図である。 図7Dは、本発明の実施の形態1に係る補間処理の一例を示す図である。 図7Eは、本発明の実施の形態1に係る補間処理の一例を示す図である。 図8は、本発明の実施の形態1に係る符号化復号方法を示すフローチャートである。 図9は、本発明の実施の形態1に係る復号処理を示すフローチャートである。 図10は、本発明の実施の形態2に係る符号化復号方法を示すフローチャートである。 図11は、本発明の実施の形態3に係る撮像システムを示すブロック図である。 図12は、本発明の実施の形態3に係る符号化復号方法を示すフローチャートである。 図13は、本発明の実施の形態4に係るカプセル型内視鏡システムを示す模式図である。 図14は、本発明の実施の形態4に係る復号装置を示すブロック図である。
 以下、図面を参照して、本発明に係る復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラムの好適な実施の形態を詳細に説明する。なお、この実施の形態によって本発明が限定されるものではない。
(実施の形態1)
 〔撮像システムの概略構成〕
 図1は、本発明の実施の形態1に係る撮像システム1を示すブロック図である。
 撮像システム1は、図1に示すように、無線伝送系2を介して動画像データを無線通信する撮像デバイス3及び復号装置4を備える。
 〔撮像デバイスの構成〕
 撮像デバイス3は、被写体を撮像することにより生成した動画像データを符号化し、無線伝送系2を介して無線送信する。この撮像デバイス3は、撮像部31と、制御部32と、送信部33等を備える。
 撮像部31は、制御部32による制御の下、例えば毎秒30枚のフレームレートで被写体を撮像して動画像データを生成するとともに、当該動画像データをキーフレーム及び非キーフレームに振り分ける。この撮像部31は、撮像素子311と、信号処理部312と、グレイ符号化部313と、振分部314等を備える。
 撮像素子311は、撮像素子駆動回路(図示略)により駆動し、入射した光を電気信号に変換して像を形成する。撮像素子駆動回路は、撮像素子311を駆動してアナログ信号の画像データを取得し、当該アナログ信号の画像データを信号処理部312に出力する。
 信号処理部312は、撮像素子311から出力されたアナログ信号の画像データに例えばサンプリングや増幅やA/D(Analog to Digital)変換等の所定の信号処理を実施することで、デジタルの画像データを生成し、グレイ符号化部313に出力する。
 グレイ符号化部313は、信号処理部312からの画像データ(動画フレーム列)に対してグレイ符号化を行う。例えば、グレイ符号化部313は、画像データの各画素の画素値「6(二進表示で“0110”)」をグレイコード「“0101”」、画素値「7(二進表示で“0111”)」をグレイコード「“0100”」、画素値「8(二進表示で“1000”)」をグレイコード「“1100”」にグレイ符号化する。グレイコードは、ある値から隣接した値に変化する際に、常に1ビットのみデータが変化するという特性を有する。
 振分部314は、グレイ符号化部313にてグレイ符号化された画像データ(動画フレーム列)をキーフレームと非キーフレームとに振り分ける。例えば、振分部314は、数フレームに1枚の頻度でキーフレームとし、残りが非キーフレームとなるように振り分けを行う。そして、振分部314は、キーフレームを送信部33に出力し、非キーフレームを制御部32に出力する。
 制御部32は、CPU(Central Processing Unit)等を含んで構成され、撮像デバイス3全体の動作を制御する。この制御部32は、ビットプレーン生成部321と、符号化部322と、間引き処理部323等を備える。
 ビットプレーン生成部321は、振分部314からの非キーフレームを入力し、1フレーム毎に、第1,第2ビットプレーンに分解する。そして、ビットプレーン生成部321は、第1ビットプレーンを符号化部322に出力し、第2ビットプレーンを間引き処理部323に出力する。
 図2は、本発明の実施の形態1に係る第1,第2ビットプレーンの一例を示す図である。なお、図2では、非キーフレームの各画素の画素値に対応するグレイコードが8bitで表される場合を例示している。
 例えば、ビットプレーン生成部321は、非キーフレームの各画素のグレイコードが8bitで表される場合、図2に示すように、当該非キーフレームを、上位ビットから順に4bitを割り当てた第1ビットプレーンと、下位ビットから順に4bitを割り当てた第2ビットプレーンとに分解する。
 なお、第1ビットプレーンとしては、最上位ビットを含んでいれば、割り当てるbit数は、上述した4bitに限られない。第2ビットプレーンも同様に、最下位ビットを含んでいれば、割り当てるbit数は、上述した4bitに限られない。
 符号化部322は、ビットプレーン生成部321からの第1ビットプレーンを入力し、当該第1ビットプレーンに対して符号化処理を施す。
 具体的に、符号化部322は、入力した第1ビットプレーンにおける一画素のグレイコード(ビット列)をxとした場合に、以下の数式(1)に示すように、(n-k)行×n列の低密度パリティ検査行列Hを用いてシンドローム符号化を行う。そして、符号化部322は、第1ビットプレーンの全ての画素についてシンドローム符号化を実施して、符号化処理後の第1ビットプレーン(シンドロームC)を送信部33に出力する。
 ここで、(n-k)行×n列の検査行列Hを用いた場合、符号化率はk/nとなり、圧縮率は(n-k)/nとなる。
Figure JPOXMLDOC01-appb-M000001
 図3は、本発明の実施の形態1に係る符号化処理の一例を示す図である。なお、図3では、低密度パリティ検査行列Hとして、以下の数式(2)に示す4行×6列(n=6、k=2)の低密度パリティ検査行列Hを用いた場合(入力するグレイコードxが6bitの場合)を例示している。
Figure JPOXMLDOC01-appb-M000002
 検査行列Hは、図3に示すように、複数の列と1対1に対応する複数の変数ノードと、複数の行と1対1に対応する複数のチェックノードとの間の結線状態を示す二部グラフにより表現することができる。
 具体的に、二部グラフでは、検査行列Hの複数の列と1対1に対応する複数の変数ノードv(図3の例では、i=1~6)が左側に配置されている。また、検査行列Hの複数の行と1対1に対応する複数のチェックノードc(図3の例では、j=1~4)が右側に配置されている。そして、検査行列Hの成分が「1」となる行と列の組み合わせに対応する変数ノードvとチェックノードcとが線(エッジと呼ぶ)で結ばれている。
 例えば、図3の例では、第2列に対応する変数ノードvと第3行に対応するチェックノードcとがエッジで接続されているが、これは、検査行列Hの第3行第2列の成分が「1」であることを示す。
 そして、このような二部グラフを用いることで、数式(1)に示すシンドローム符号化も容易に実施することができる。
 例えば、第1ビットプレーンに含まれる一画素のグレイコードx(図3の例では6bit)が“101011”であった場合には、図3に示すように、当該グレイコードxを変数ノードvにそれぞれ割り当てる。そして、チェックノードcのそれぞれに着目し、エッジで接続された全ての変数ノードvの二進加算を行う。例えば、チェックノードcに着目した場合には、当該チェックノードcにエッジで接続された変数ノードvが変数ノードv,v,vであるため、変数ノードv,v,vの各値「1」,「0」,「1」の二進加算を行って「0」の値を得る。そして、各チェックノードcで算出された“0101”がシンドロームCとなる。
 すなわち、数式(2)のような低密度パリティ検査行列Hを用いた場合には、6bitのグレイコードxが4bitのシンドロームCに圧縮(圧縮率:2/3)されることとなる。
 なお、低密度パリティ検査行列Hとしては、数式(2)に示すような符号化率1/3及び圧縮率2/3の検査行列に限らず、符号化率1/2及び圧縮率1/2の検査行列や、符号化率2/3及び圧縮率1/3の検査行列を採用しても構わない。圧縮率が33%~50%になる検査行列を採用することが好ましい。
 間引き処理部323は、ビットプレーン生成部321からの第2ビットプレーンを入力し、当該第2ビットプレーンに対してビットの間引き処理を施す。具体的には後述するが、当該間引き処理は、キーフレームに時系列的に隣接する非キーフレームの第2ビットプレーンについては全て削除し、キーフレームに隣接していない非キーフレームの第2ビットプレーンについては一部のビットを間引くものである。そして、間引き処理部323は、間引き処理後の第2ビットプレーンを送信部33に出力する。
 図4は、本発明の実施の形態1に係る間引き処理の一例を示す図である。なお、図4では、左側から順に撮像部31にて撮像された各フレームを時系列的に並べたものであり、振分部314が5フレームに1枚の頻度でキーフレームとした場合(キーフレーム1枚に対して非キーフレーム4枚の割合とした場合)を例示している。すなわち、図4では、6フレーム分を図示しており、第1及び第6フレーム目にキーフレームを図示し、第2~第5フレーム目に非キーフレームを図示している。また、図4では、ビットプレーン生成部321が下位ビットから順に4bitを割り当てた第2ビットプレーンを生成した場合を例示しており、当該第2ビットプレーンに含まれる一画素の各ビット(4bit)を上下方向に並べた状態を図示している。
 具体的に、間引き処理部323は、キーフレームに隣接する非キーフレーム(図4の例では、第2及び第5フレーム目の非キーフレーム(第2ビットプレーン))のデータについては全て削除する(図4では斜線で図示)。
 また、間引き処理部323は、キーフレームから離間した非キーフレーム(図4の例では、第3及び第4フレーム目の非キーフレーム(第2ビットプレーン))の一部のビットのデータのみを残し(図4では白抜きで図示)、他のビットのデータを削除する。
 例えば、図4の例では、間引き処理部323は、第3フレーム目の非キーフレーム(第2ビットプレーン)において、最上位ビット(下位ビットから4ビット目)と当該最上位ビットから1ビット離れた(下位ビットから2ビット目)ビットの各データのみを残す。また、間引き処理部323は、第4フレーム目の非キーフレーム(第2ビットプレーン)において、上記第3フレームでデータを残したビットとは異なるビット(下位ビットから3ビット目)のデータのみを残す。
 すなわち、間引き処理部323は、隣接するフレーム間(第3,第4フレーム)でそれぞれ異なる位のビットのデータを残すように、非キーフレーム(第2ビットプレーン)の間引き処理を実施する。
 なお、間引き処理部323は、第3及び第4フレーム目の非キーフレーム(第2ビットプレーン)のいずれでも、最下位ビットのデータについては削除する。
 送信部33は、制御部32による制御の下、振分部314からのキーフレーム、符号化部322からの符号化処理後の第1ビットプレーン(シンドロームC)、及び間引き処理部323からの間引き処理後の第2ビットプレーンをデータストリーム化する。そして、送信部33は、無線伝送系2を介して、データストリーム化した動画像データを復号装置4に送信する。
 〔復号装置の構成〕
 復号装置4は、撮像デバイス3から無線伝送系2を介して送信されてくる動画像データ(データストリーム)を受信して復号する。この復号装置4は、図1に示すように、受信部41と、メモリ部42と、制御部43等を備える。
 受信部41は、撮像デバイス3から無線伝送系2を介して送信されてくる動画像データを受信するためのアンテナ等で構成されている。そして、受信部41は、制御部43による制御の下、動画像データを順次、受信し、メモリ部42に出力する。
 なお、以下では、説明の便宜上、受信部41にて受信した動画像データを受信データと記載する。
 上述した受信部41は、本発明に係る受信部として機能する他、本発明に係るデータ取得部としても機能する。
 メモリ部42は、受信部41から出力される受信データを順次、記憶する。また、メモリ部42は、制御部43が実行する各種プログラム(復号プログラムを含む)や制御部43の処理に必要な情報等を記憶する。さらに、メモリ部42は、フレーム間の画素値相関特性に関する特性情報を記憶する。すなわち、メモリ部42は、本発明に係る特性情報記憶部として機能する。
 図5A及び図5Bは、本発明の実施の形態1に係る特性情報の一例を示す図である。
 特性情報は、予め撮像(例えば毎秒30枚のフレームレートで撮像)することにより生成された動画像データ(動画フレーム列)から算出され、フレーム間で画素値(グレイコード)がどのように変化するかを確率分布で表した情報である。
 なお、本発明の実施の形態1では、メモリ部42は、上述した特性情報として、1つの動画像データ(所定期間内に撮像された時間的に連続する動画フレーム列)から算出された特性情報のみを記憶している。
 例えば、図5Aに示すように、時系列的に並んだ2つのフレームのうち、時間的に前のフレームにおける一画素(座標(1,1))の上位4ビット分の画素値(グレイコード)をu(1,1)(図5A及び図5Bの例ではu(1,1)=5(グレイコードは“0111”))とし、後のフレームにおける同一画素位置の上位4ビット分の画素値(グレイコード)をu(1,1)とする。この場合、メモリ部42には、画素値u(1,1),u(1,1)の間での特性情報として、図5Bに示す特性情報が記憶されている。
 具体的に、画素値u(1,1),u(1,1)の間での特性情報は、図5Bに示すように、画素値u(1,1)の取り得る確率P(u(1,1))がラプラス分布で近似された情報である。
 以下の表1は、図5Bに示す画素値u(1,1)とその取り得る確率P(u(1,1))とを纏めた表である。
 すなわち、図5Bや表1に示すように、画素値u(1,1)と同一の「5」となる確率P(u(1,1))が最も高く(50%)、画素値u(1,1)から離れた画素値になるほど、その確率P(u(1,1))が低くなっている。
Figure JPOXMLDOC01-appb-T000003
 制御部43は、CPU等を含んで構成され、メモリ部42に記憶されたプログラム(復号プログラムを含む)を読み出し、当該プログラムに従って復号装置4全体の動作を制御する。この制御部43は、図1に示すように、復号部431と、誤り検出部432と、表示判定部433と、補間処理部434と、合成部435と、グレイ復号部436等を備える。
 復号部431は、2つの第1,第2対数尤度比を利用して確率伝播(Belief-Propagation)法による繰り返し復号(第1,第2対数尤度比の尤度交換)を実施するとともに撮像デバイス3から送信された非キーフレームの符号化処理前の第1ビットプレーンを推定する復号処理を実施する。この復号部431は、第1対数尤度比算出部431Aと、第2対数尤度比算出部431Bと、推定部431C等を備える。
 なお、復号部431は、符号化処理前の第1ビットプレーンを推定する際、フレーム(非キーフレーム)単位で画素毎に処理を行うものである。
 以下では、説明の便宜上、復号対象とする非キーフレームを対象フレームと記載し、対象フレームにおける復号対象とする画素位置を対象画素位置と記載する。
 図6は、本発明の実施の形態1に係る繰り返し復号(確率伝播法)の一例を示す図である。なお、図6では、説明の便宜上、変数ノードv及びチェックノードc(例えば図3参照)をそれぞれ1つのみ図示している。また、図6中、添え字で付された「w」は、i番目の変数ノードvに接続するエッジの数である。同様に、添え字で付された「r」は、j番目のチェックノードcに接続するエッジの数である。
 具体的に、復号部431は、図6に示すように、撮像デバイス3でのシンドローム符号化に用いられた(n-k)行×n列の低密度パリティ検査行列Hを表現する二部グラフ上で、変数ノードvから当該変数ノードvのm(m=1~w)番目のエッジに沿って第2対数尤度比qi,mをチェックノードcに送り、チェックノードcから当該チェックノードcのm´(m´=1~r)番目のエッジに沿って第1対数尤度比tj,m´を変数ノードvに送る尤度交換を所定回数、繰り返す繰り返し復号を実施する。
 なお、図6では、説明の便宜上、変数ノードvから当該変数ノードvのm番目のエッジに沿って出ていく第2対数尤度比qi,mに「out」の添え字を付して表現している。また、変数ノードvに対して当該変数ノードvのm番目のエッジに沿って入ってくる対数尤度比(第1対数尤度比tj,m´)を、qi,mに「in」の添え字を付して表現している。同様に、チェックノードcから当該チェックノードcのm´番目のエッジに沿って出て行く第1対数尤度比tj,m´に「out」の添え字を付して表現している。また、チェックノードcに対して当該チェックノードcのm´番目のエッジに沿って入ってくる対数尤度比(第2対数尤度比qi,m)を、tj,m´に「in」の添え字を付して表現している。
 ここで、対数尤度比LLR(Log-Likelihood Ratio)は、以下の数式(3)に示すように、あるビットが「0」である確率P(0)と「1」である確率P(1)との比の対数をとったものである。そして、対数尤度比が0以上である場合は当該対数尤度比の値に対応するビットが「0」であると評価することができ、対数尤度比が0より小さい場合は当該対数尤度比の値に対応するビットが「1」であると評価することができる。また、対数尤度比の絶対値が大きい程、当該対数尤度比の値に対応するビットの値が「0」なのか「1」なのかを高い信頼性を持って評価することができる。
Figure JPOXMLDOC01-appb-M000004
 第2対数尤度比算出部431Bは、対象フレーム(第1ビットプレーン)に対して時系列的に直前のキーフレームと、特性情報とをメモリ部42から読み出し、第2対数尤度比qi,mの初期値となる第2対数尤度比qi,0を算出する。そして、第2対数尤度比算出部431Bは、1回目の尤度交換において、算出した第2対数尤度比qi,0を、変数ノードvからエッジに沿ってチェックノードcに送る。
 例えば、対象フレーム(第1ビットプレーン)の対象画素位置の座標が座標(1,1)であり、メモリ部42から読み出したキーフレームにおける対象画素位置(座標(1,1))の上位4ビット分の画素値u(1,1)が「5」である場合(図5A及び図5Bの例の場合)、第2対数尤度比算出部431Bは、以下に示すように、対象画素位置の画素値u(1,1)の初期値となる第2対数尤度比qi,0(i=1~4)を算出する。
 画素値u(1,1)の上位側から1番目のビットが「0」となるのは、画素値u(1,1)が「1(“0001”)」、「2(“0011”)」、「3(“0010”)」、「4(“0110”)」、「5(“0111”)」、「6(“0101”)」、及び「7(“0100”)」の場合である。このため、図5Bや表1に示す特性情報に基づいて、上記の場合での確率P(u(1,1))から確率P(0)を算出することができる。
 一方、画素値u(1,1)の上位側から1番目のビットが「1」となるのは、画素値u(1,1)が「8(“1100”)」及び「9(“1101”)」の場合である。このため、図5Bや表1に示す特性情報に基づいて、上記の場合での確率P(u(1,1))から確率P(1)を算出することができる。
 そして、上記のように確率P(0),P(1)が算出されれば、数式(3)により、対象画素位置である座標(1,1)の1番目のビットの第2対数尤度比q1,0を算出することができる。
 なお、座標(1,1)の上位側から2,3,4番目のビットの各第2対数尤度比q2,0~q4,0についても同様の考え方で算出することができる。
 そして、第2対数尤度比算出部431Bは、算出した各第2対数尤度比q1,0~q4,0を各変数ノードv~vからそれぞれ送る。
 また、第2対数尤度比算出部431Bは、所定回数、実施される第1,第2対数尤度比の尤度交換中、以下の数式(4)により、第2対数尤度比qi,mを更新する。
Figure JPOXMLDOC01-appb-M000005
 ここで、第2対数尤度比算出部431Bは、数式(4)に示すように、一の変数ノードvからエッジに沿って一のチェックノードcに送る第2対数尤度比qi,mを更新するにあたって、送信先のチェックノードcから送信元の変数ノードvに送られてきた第1対数尤度比tj,m´を考慮に入れない。例えば、1番目の変数ノードvからエッジに沿って1番目のチェックノードcに送る第2対数尤度比q1,1を更新するにあたって、1番目のチェックノードcから1番目の変数ノードvに送られた第1対数尤度比t1,1を考慮に入れない。
 第1対数尤度比算出部431Aは、メモリ部42から受信データに含まれる符号化処理後の第1ビットプレーンを読み出す。例えば、第1対数尤度比算出部431Aは、対象フレーム(第1ビットプレーン)の対象画素位置の座標が座標(1,1)である場合には、対象フレーム(第1ビットプレーン)における座標(1,1)のシンドロームCをメモリ部42から読み出す。また、第1対数尤度比算出部431Aは、読み出したシンドロームCと、通信路における雑音の標準偏差とに基づいて、第1対数尤度比tj,m´の初期値となる第1対数尤度比tj,0を算出する。そして、第1対数尤度比算出部431Aは、1回目の尤度交換において、算出した第1対数尤度比tj,0を、チェックノードcからm´番目のエッジに沿って変数ノードvに送る。
 また、第1対数尤度比算出部431Aは、所定回数、実施される第1,第2対数尤度比の尤度交換中、以下の数式(5)により、第1対数尤度比tj,m´を更新する。
Figure JPOXMLDOC01-appb-M000006
 数式(5)中、sは、読み出したシンドロームCのj番目のビットの値である。
 ここで、第1対数尤度比算出部431Aは、数式(5)に示すように、一のチェックノードcからエッジに沿って一の変数ノードvに送る第1対数尤度比tj,m´を更新するにあたって、送信先の変数ノードvから送信元のチェックノードcに送られてきた第2対数尤度比qi,mを考慮に入れない。例えば、1番目のチェックノードcからエッジに沿って1番目の変数ノードvに送る第1対数尤度比t1,1を算出するにあたって、1番目の変数ノードvから1番目のチェックノードcに送られた第2対数尤度比q1,1を考慮に入れない。
 推定部431Cは、変数ノードv及びチェックノードc間で第1,第2対数尤度比の尤度交換が所定回数、実施された後(繰り返し復号の後)、以下の数式(6)により、符号化処理前の第1ビットプレーン(対象画素位置の画素値に対応するグレイコード(ビット列))を推定する。
Figure JPOXMLDOC01-appb-M000007
 数式(6)中、ハット記号が付されたxは、推定部431Cにより推定された第1ビットプレーンにおける対象画素位置の画素値に対応するグレイコード(ビット列)を示している。
 すなわち、推定部431Cは、数式(6)に示すように、初期値となる第2対数尤度比qi,0と各エッジを介して変数ノードvに送られた全ての第1対数尤度比tj,m´を加算し、加算された対数尤度比の値(繰り返し復号後の事後対数尤度比)により、第1ビットプレーンにおける対象画素位置の画素値のi番目のビットの値が「0」なのか「1」なのかを推定する。
 誤り検出部432は、復号部431にて復号処理により推定された第1ビットプレーン(対象画素位置のグレイコード(ビット列))に対して、パリティ検査を行い、誤りがあるか否かを検出する。なお、当該パリティ検査では、撮像デバイス3(符号化部322)で用いられた低密度パリティ検査行列Hを用いる。
 表示判定部433は、誤り検出部432による検出結果に基づいて、復号部431にて復号処理により推定された第1ビットプレーンを含む非キーフレームを表示部(例えば、図14に示す表示部46等)に表示する表示対象とするか否かの判定処理を実施する。当該判定処理により、表示判定部433は、表示対象としないと判定した場合には当該非キーフレームに対して非表示対象を示す非表示対象フラグを付加する。そして、復号装置4にて復号された後の動画像データを表示する際には、非表示対象フラグが付加されていないフレーム(キーフレーム及び非キーフレーム)に対応する画像は、表示部に表示されることとなる。一方、非表示対象フラグが付加された非キーフレームに対応する画像は、表示部に表示されない。
 補間処理部434は、メモリ部42から受信データに含まれる間引き処理後の第2ビットプレーン、当該第2ビットプレーン(非キーフレーム)に対して時系列的に直前及び直後のキーフレームを読み出す。そして、補間処理部434は、間引き処理後の第2ビットプレーンに対して補間処理を施す。
 図7Aないし図7Eは、本発明の実施の形態1に係る補間処理の一例を示す図である。なお、図7Aないし図7Eは、図4に対応しており、図4で示した間引き処理後の第2ビットプレーンに対する補間処理を例示している。また、図7Aは間引き処理前の状態を示しており、図7Bは間引き処理後の状態(受信データに含まれる6フレーム分のデータ)を示している。
 具体的に、補間処理部434は、時系列的に隣接するフレーム(図7Aないし図7Eの例では第3,第4フレーム目)となる2つの第2ビットプレーンをメモリ部42から読み出した後、図7Cに示すように、同一の画素位置で、同じ位のビットの値が同一となるように、一方のビットのデータを他方のビットにコピーする(コピー補間)。
 また、補間処理部434は、図7Dに示すように、上記2つの第2ビットプレーンにおける最下位ビットの値を「0」または「1」のいずれかの値(図7Dでは「1」)にランダムに設定する(ランダム補間)。
 さらに、補間処理部434は、残ったフレーム(図7Aないし図7Eの例では第2,第5フレーム目)となる2つの第2ビットプレーンについては、時系列的に隣接するフレーム(キーフレーム及び非キーフレーム)を用いて補間を行う。
 具体的に、補間処理部434は、上記コピー補間及びランダム補間を行った2つの第2ビットプレーン(非キーフレーム)に対して時系列的に直前及び直後のキーフレームをメモリ部42から読み出す。そして、補間処理部434は、図7Eに示すように、同一の画素位置で、直前及び直後の2つのキーフレームにおける下位4ビット分の画素値(グレーコード)と第3,第4フレーム目の2つの第2ビットプレーンの画素値(グレーコード)とに基づいて線形補間を行い、第2,第5フレーム目の第2ビットプレーンを生成する。
 例えば、図7Eの例では、直前のキーフレームにおける下位4ビット分の画素値(グレーコード)が「9(“1101”)」であり、第3フレーム目の第2ビットプレーンの画素値(グレーコード)が「6(“0101”)」であるため、線形補間により、画素値(グレーコード)を「8(“1100”)」とした第2フレーム目の第2ビットプレーンを生成する。同様に、第4フレーム目の第2ビットプレーンの画素値(グレーコード)が「6(“0101”)」であり、直後のキーフレームの下位4ビット分の画素値(グレーコード)が「4(“0110”)」であるため、線形補間により、画素値(グレーコード)を「5(“0111”)」とした第5フレーム目の第2ビットプレーンを生成する。
 以上のような補間処理により、間引き処理前の第2ビットプレーンのグレーコード(図7A)と、補間処理後の第2ビットプレーンのグレーコード(図7E)とが略同一となる。
 合成部435は、復号部431にて復号処理により推定された第1ビットプレーンと、補間処理部434にて補間処理が施された第2ビットプレーンとにより、非キーフレームを再構成する。そして、合成部435は、メモリ部42から受信データに含まれるキーフレームを読み出し、当該キーフレームと再構成した非キーフレームとにより、動画像ファイルを作成する。
 グレイ復号部436は、合成部435にて生成された動画像ファイルに対してグレイ復号(グレイコードを画素値に変換)を行う。
 〔撮像システムの動作〕
 次に、上述した撮像システム1の動作(符号化復号方法)について説明する。
 図8は、本発明の実施の形態1に係る符号化復号方法を示すフローチャートである。
 なお、以下では、説明の便宜上、撮像デバイス3の動作、及び復号装置4の動作の順に説明する。
 〔撮像デバイスの動作〕
 先ず、撮像素子311は、制御部32による制御の下、被検体の撮像(例えば毎秒30枚のフレームレートでの撮像)を開始する(ステップS1)。
 ステップS1の後、振分部314は、撮像素子311にて撮像され信号処理部312及びグレイ符号化部313を介してグレイ符号化された動画フレーム列をキーフレーム及び非キーフレームに振り分け、キーフレームを送信部33に出力し、非キーフレームをビットプレーン生成部321に出力する(ステップS2:振り分けステップ)。
 ステップS2の後、ビットプレーン生成部321は、振分部314からの非キーフレームを入力し、1フレーム毎に、第1,第2ビットプレーンに分解し、第1ビットプレーンを符号化部322に出力し、第2ビットプレーンを間引き処理部323に出力する(ステップS3:ビットプレーン生成ステップ)。
 ステップS3の後、符号化部322は、ビットプレーン生成部321からの第1ビットプレーンを入力し、当該第1ビットプレーンに対して符号化処理(シンドローム符号化)を施す(ステップS4:符号化ステップ)。
 ステップS4の後、間引き処理部323は、ビットプレーン生成部321からの第2ビットプレーンを入力し、当該第2ビットプレーンに対して間引き処理を施す(ステップS5)。
 ステップS5の後、送信部33は、制御部32による制御の下、振分部314からのキーフレーム、符号化部322からの符号化処理後の第1ビットプレーン(シンドロームC)、及び間引き処理部323からの間引き処理後の第2ビットプレーンをデータストリーム化する。そして、送信部33は、無線伝送系2を介して、データストリーム化した動画像データを復号装置4に送信する(ステップS6:送信ステップ)。
 〔復号装置の動作(復号方法)〕
 制御部43は、メモリ部42から復号プログラムを読み出し、当該復号プログラムにしたがって、以下の処理を実行する。
 先ず、受信部41は、制御部43による制御の下、撮像デバイス3からの動画像データを順次、受信し、メモリ部42に出力する(ステップS7:受信ステップ、データ取得ステップ)。そして、メモリ部42は、受信データを順次、記憶する。
 ステップS7の後、補間処理部434は、メモリ部42から受信データに含まれる間引き処理後の第2ビットプレーン、当該第2ビットプレーン(非キーフレーム)に対して時系列的に直前及び直後のキーフレームを読み出す。そして、補間処理部434は、間引き処理後の第2ビットプレーンに対して補間処理を施す(ステップS8:補間処理ステップ)。
 ステップS8の後、復号部431は、以下に示すように、フレーム(非キーフレーム)単位で画素毎に第1ビットプレーンの復号処理を実施する(ステップS9:復号ステップ)。
 図9は、本発明の実施の形態1に係る復号処理を示すフローチャートである。
 先ず、第2対数尤度比算出部431Bは、対象フレームに対して時系列的に直前のキーフレームにおける対象画素位置のグレイコードと、特性情報とをメモリ部42から読み出し、初期値となる第2対数尤度比qi,0を算出する(ステップS9A)。
 ステップS9Aの後、第1対数尤度比算出部431Aは、メモリ部42から受信データに含まれる対象フレーム(第1ビットプレーン)における対象画素位置のシンドロームCをメモリ部42から読み出す。また、第1対数尤度比算出部431Aは、読み出したシンドロームCに基づいて、初期値となる第1対数尤度比tj,0を算出する(ステップS9B)。
 ステップS9Bの後、復号部431は、第1,第2対数尤度比の尤度交換を所定回数、実施する。また、第1,第2対数尤度比算出部431A,431Bは、当該尤度交換中、数式(4),(5)により、第1,第2対数尤度比tj,m´,qi,mをそれぞれ更新する(ステップS9C)。
 ステップS9Cの後、推定部431Cは、繰り返し復号(ステップS9C)後の事後対数尤度比に基づいて、数式(6)により、符号化処理前の第1ビットプレーンにおける対象画素位置のグレイコード(ビット列)を推定する(ステップS9D)。そして、復号部431は、復号処理(ステップS9)を終了する。
 ステップS9の後、誤り検出部432は、復号部431により推定された対象フレームにおける対象画素位置のグレイコード(ビット列)に対して、パリティ検査を行い(ステップS10)、誤りがあるか否かを判定する(ステップS11)。
 ステップS11において、「Yes」と判定された場合、すなわち、パリティ検査で誤りがあると判定された場合には、表示判定部433は、対象フレームに対して非表示対象フラグを付加する(ステップS12)。
 ステップS12の後、制御部43は、対象フレームを次の非キーフレームに切り替え(ステップS13)、ステップS9に移行し、切り替え後の非キーフレームについて復号処理を実施する。
 一方、ステップS11において、「No」と判定した場合、すなわち、パリティ検査で誤りがないと判定した場合には、制御部43は、対象フレームにおける全画素位置でステップS9を実施したか否かを判定する(ステップS14)。
 ステップS14において、「No」と判定した場合には、制御部43は、対象フレームにおける対象画素位置を次の画素位置に切り替え(ステップS15)、ステップS9に移行し、切り替え後の対象画素位置について復号処理を実施する。
 また、ステップS14において、「Yes」と判定した場合には、制御部43は、メモリ部42に記憶された全ての非キーフレームについてステップS9を実施したか否かを判定する(ステップS16)。
 ステップS16において、「No」と判定した場合には、制御部43は、対象フレームを次の非キーフレームに切り替え(ステップS13)、ステップS9に移行し、切り替え後の非キーフレームについて復号処理を実施する。
 一方、ステップS16において、「Yes」と判定された場合には、合成部435は、復号部431による復号処理(ステップS9)後の第1ビットプレーンと、ステップS8において補間処理が施された第2ビットプレーンとにより、非キーフレームを再構成する(ステップS17)。
 ステップS17の後、合成部435は、メモリ部42から受信データに含まれるキーフレームを読み出し、当該キーフレームと再構成した非キーフレームとにより、動画像ファイルを作成する(ステップS18)。
 そして、グレイ復号部436は、ステップS18において生成された動画像ファイルに対してグレイ復号を行う(ステップS19)。
 以上、説明した本発明の実施の形態1では、撮像デバイス3は、撮像することにより生成した動画像データのうち、キーフレームについては符号化することなく、非キーフレーム(第1,第2ビットプレーン)については符号化処理及び間引き処理を施す。そして、撮像デバイス3は、これらキーフレーム及び非キーフレームをデータストリーム化して送信する。このため、送信する動画像データの情報量を少なくすることができる。また、送信する動画像データのデータ長も同一にすることができる。さらに、符号化処理を施すことで、動画像データの秘匿性を向上することができる。
 また、復号装置4では、符号化処理後の第1ビットプレーンから得られる初期値となる第1対数尤度比tj,0と符号化されていないキーフレーム及び特性情報から得られる初期値となる第2対数尤度比qi,0とに基づいて、確率伝播法により繰り返し復号を実施する。このため、撮像デバイス3側で実施される符号化方式として、単純な符号化方式を採用することができる。特に、本実施の形態1では、符号化処理として、低密度パリティ検査行列Hを用いたシンドローム符号化を採用しているため、ビット列xに対して低密度パリティ検査行列Hを作用させるだけでよく、符号化処理の計算量が非常に少ないものとなる。
 以上のことから、撮像時のフレームレートを大きくした場合(例えば、毎秒30枚のフレームレートにした場合)であっても撮像デバイス3側の負荷及び消費電力を抑えることが可能な撮像システム1、復号装置4、符号化復号方法、復号方法、及び復号プログラムを実現することができる。
 また、撮像デバイス3は、非キーフレームのうち、画像に与える影響度の高い上位側のビットが割り当てられた第1ビットプレーンに対して符号化処理を施し、影響度の低い下位側のビットが割り当てられた第2ビットプレーンに対して間引き処理を施す。このため、撮像することにより生成された動画像データに対する画質低下を抑制しつつ、送信する動画像データの情報量を少なくすることができる。
 さらに、復号装置4は、繰り返し復号を実施しているので、動画像データの送受信や保存に伴って発生する誤りを訂正することができる。
 ところで、本実施の形態1では、撮像時のフレームレートが大きいもの(毎秒30枚)であるため、フレーム(キーフレーム及び非キーフレーム)間の相関も大きくなっている。
 そして、復号装置4は、対象フレームに対して時系列的に直前のキーフレーム、すなわち、対象フレームに対して高い相関を持つキーフレーム、及び特性情報を用いて初期値となる第2対数尤度比qi,0を算出し、当該第2対数尤度比qi,0を用いて繰り返し復号を実施している。このため、高い確度で符号化処理前の第1ビットプレーンを推定することができる。
 なお、補間処理においても同様に、非キーフレームに対して高い相関を持つ直前及び直後のキーフレームを用いているため、高い確度で間引き処理前の第2ビットプレーンを生成することができる。
 また、復号装置4は、繰り返し復号で誤りを訂正(高い確度で第1ビットプレーンを推定)した後、パリティ検査で誤りを検出し、一つの画素位置でも誤りが検出された非キーフレームについては非表示対象フラグを付加して表示対象にはしない。このため、動画ファイルを再生表示する際に、撮像デバイス3にて生成された動画像データに対して画質低下の抑制された表示を実現することができる。
(実施の形態2)
 次に、本発明の実施の形態2について説明する。
 以下の説明では、上述した実施の形態1と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
 上述した実施の形態1では、メモリ部42は、特性情報として、1つの動画像データ(所定期間内に撮像された時間的に連続する動画フレーム列)から算出された特性情報のみを記憶していた。そして、復号部431は、当該特性情報を用いて算出した初期値となる第2対数尤度比qi,0を用いて、繰り返し復号(ステップS9C)を実施していた。
 これに対して本実施の形態2では、メモリ部42は、特性情報として、複数の動画像データからそれぞれ算出された複数の特性情報を記憶している。
 すなわち、複数の特性情報は、撮像された時間帯や撮像された場所等が異なる複数の動画像データからそれぞれ算出されている。このため、複数の特性情報間では、図5Bに例示したような確率分布が異なるものとなる。
 そして、復号部431は、以下に示すように、所定の条件を満たした場合に、複数の特性情報を用いて初期値となる第2対数尤度比qi,0を変更し、当該変更した第2対数尤度比qi,0を用いて繰り返し復号を実施する。
 図10は、本発明の実施の形態2に係る符号化復号方法を示すフローチャートである。
 本実施の形態2に係る符号化復号方法では、撮像デバイス3の動作については、上述した実施の形態1と同様である。このため、図10では、撮像デバイス3の動作については省略し、復号装置4の動作(復号方法)のみを示している。
 また、本実施の形態2に係る復号方法では、上述した実施の形態1で説明した復号方法に対して、以下に示すステップS20,S21が追加された点が異なるのみである。
 このため、以下では、ステップS20,S21のみを説明する。
 ステップS20は、パリティ検査(ステップS10)の結果、ステップS11において、「Yes」と判定された場合、すなわち、誤りがあると判定された場合(上記所定の条件を満たした場合に相当)に実施される。
 そして、ステップS20では、制御部43は、メモリ部42に記憶された初期値となる第2対数尤度比qi,0の算出に用いる全ての特性情報を用いたか否かを判定する。
 ステップS20において、「No」と判定した場合には、制御部43(第2対数尤度比算出部431B)は、従前に用いた特性情報とは異なる特性情報を用いて、ステップS9Aと同様に、対象画素位置のグレイコードの初期値となる第2対数尤度比qi,0を算出し、従前に用いた第2対数尤度比qi,0を、算出した第2対数尤度比qi,0に変更する(ステップS21)。
 ステップS21の後、復号部431は、ステップS9Cに移行し、ステップS21で変更した初期値となる第2対数尤度比qi,0及びステップS9Bで算出した初期値となる第1対数尤度比tj,0を用いて、新たな尤度交換を実施する。
 一方、ステップS20において、「Yes」と判定した場合、すなわち、初期値となる第2対数尤度比qi,0の算出に用いる全ての特性情報を用いたと判定した場合には、制御部43は、ステップS12に移行し、対象フレームに対して非表示対象フラグを付加する。
 以上、説明した本発明の実施の形態2では、上述した実施の形態1と同様の効果の他、以下の効果を奏する。
 本実施の形態2では、復号部431は、メモリ部42に記憶された複数の特性情報を用いて初期値となる第2対数尤度比qi,0を変更して、繰り返し復号を実施する。すなわち、種々の時間帯や場所等で撮像された複数の動画像データに基づく種々のフレーム間相関を利用して繰り返し復号を実施する。このため、より高い確度の第1ビットプレーンを推定することができる。
 なお、上述した実施の形態2では、復号装置4は、パリティ検査(ステップS10)の結果、誤りが検出された場合に限って初期値となる第2対数尤度比qi,0を変更していたが(ステップS21)、これに限られない。例えば、メモリ部42に記憶された全ての特性情報のそれぞれを用いて初期値となる第2対数尤度比qi,0を算出し、全ての第2対数尤度比qi,0を用いてそれぞれ繰り返し復号を行うように構成しても構わない。この際、復号装置4は、各繰り返し復号後にそれぞれ推定される各第1ビットプレーンのうち、全ての画素においてパリティ検査で誤りなしと判定された第1ビットプレーンを用いて動画像ファイルを作成すればよい。
(実施の形態3)
 次に、本発明の実施の形態3について説明する。
 以下の説明では、上述した実施の形態1と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
 図11は、本発明の実施の形態3に係る撮像システム1Aを示すブロック図である。
 上述した実施の形態1では、表示判定部433は、パリティ検査(ステップS10)の結果に基づいて、復号部431による復号処理後の非キーフレームを表示対象とするか否かの判定処理を実施していた。
 これに対して本実施の形態3に係る撮像システム1Aは、上述した実施の形態1で説明した撮像システム1(図1)に対して、図11に示すように、誤り検出部432が省略され、表示判定部433の一部の機能を変更した表示判定部433Aが追加された復号装置4A(制御部43A)を備える。
 そして、表示判定部433Aは、以下に示すように、復号部431による繰り返し復号後の事後対数尤度比に基づいて、判定処理を実施する。
 図12は、本発明の実施の形態3に係る符号化復号方法を示すフローチャートである。
 本実施の形態3に係る符号化復号方法では、撮像デバイス3の動作については、上述した実施の形態1と同様である。
 また、本実施の形態3に係る復号方法では、上述した実施の形態1で説明した復号方法に対して、ステップS10,S11の代わりにステップS22,S23が追加された点が異なるのみである。
 このため、以下では、ステップS22,S23のみを説明する。
 ステップS22は、復号処理(ステップS9)の後に実施される。
 そして、ステップS22では、表示判定部433Aは、対象画素位置のグレイコード(ビット列)のビット毎に、ステップS9での繰り返し復号後の事後対数尤度比の絶対値と第1閾値とを比較する。
 ステップS22の後、表示判定部433Aは、事後対数尤度比の絶対値が第1閾値未満となるビットの数が第2閾値よりも多いか否かを判定する(ステップS23)。
 ステップS23において、「Yes」と判定した場合には、表示判定部433Aは、ステップS12に移行し、対象フレームに対して非表示対象フラグを付加する。
 一方、ステップS23において、「No」と判定した場合には、制御部43Aは、ステップS14に移行する。
 以上、説明した本発明の実施の形態3のように、表示判定部433Aによる判定処理を繰り返し復号後の事後対数尤度比に基づいて実施した場合であっても、上述した実施の形態1と同様の効果を奏する。
 なお、上述した実施の形態3では、繰り返し復号後の事後対数尤度比に基づく判定処理を上述した実施の形態1に適用した構成を説明したが、これに限られず、上述した実施の形態2に適用しても構わない。
 また、上述した実施の形態3では、事後対数尤度比の絶対値が第1閾値未満となるビットの数が第2閾値よりも多い場合に対象フレームを非表示対象としていたが、これに限られず、事後対数尤度比に基づいて判定処理を実施すれば、その他の方法を採用しても構わない。
 例えば、グレイコード(ビット列)のビットレベルに対して重み付けを行う(例えば、下位側のビットに向かうにしたがって重みを大きくする)。そして、グレイコードのビット毎に、重みと事後対数尤度比の絶対値との積を求め、その和が第3閾値未満である場合に対象フレームを非表示対象とする。
(実施の形態4)
 次に、本発明の実施の形態4について説明する。
 以下の説明では、上述した実施の形態1と同様の構成及びステップには同一符号を付し、その詳細な説明は省略または簡略化する。
 図13は、本発明の実施の形態4に係るカプセル型内視鏡システム1Bを示す模式図である。
 本実施の形態4は、上述した実施の形態1で説明した撮像システム1をカプセル型内視鏡システム1Bに適用したものである。
 カプセル型内視鏡システム1Bは、飲み込み型のカプセル型内視鏡3Bを用いて、被検体100内部の体内画像を取得するシステムである。このカプセル型内視鏡システム1Bは、図13に示すように、カプセル型内視鏡3Bの他、受信装置5と、復号装置4Bと、可搬型の記録媒体6等を備える。
 記録媒体6は、受信装置5と復号装置4Bとの間におけるデータの受け渡しを行うための可搬型の記録メディアであり、受信装置5及び復号装置4Bに対して着脱可能に構成されている。
 カプセル型内視鏡3Bは、被検体100の臓器内部に導入可能な大きさに形成されたカプセル型の内視鏡装置であり、上述した実施の形態1で説明した撮像デバイス3と同様の機能及び構成(撮像部31、制御部32、及び送信部33)を有する。
 具体的に、カプセル型内視鏡3Bは、経口摂取等によって被検体100の臓器内部に導入され、蠕動運動等によって臓器内部を移動しつつ、体内画像を順次撮像(例えば毎秒30枚のフレームレートで撮像)する。
 そして、カプセル型内視鏡3Bは、上述した実施の形態1で説明した撮像デバイス3と同様に、撮像することにより生成した動画像データをキーフレーム及び非キーフレームに振り分ける。また、カプセル型内視鏡3Bは、キーフレームについては符号化することなく、非キーフレーム(第1,第2ビットプレーン)については符号化処理及び間引き処理を施し、当該キーフレーム及び非キーフレームをデータストリーム化して送信する。
 受信装置5は、複数の受信アンテナ5a~5hを備え、これら複数の受信アンテナ5a~5hのうち少なくとも一つを介して被検体100内部のカプセル型内視鏡3Bからの動画像データ(データストリーム)を受信する。そして、受信装置5は、当該受信装置5に挿着された記録媒体6内に、受信した動画像データを蓄積する。
 なお、受信アンテナ5a~5hは、図13に示したように被検体100の体表上に配置されていてもよいし、被検体100に着用させるジャケットに配置されていてもよい。また、受信装置5が備える受信アンテナ数は、1つ以上であればよく、特に8つに限定されない。
 図14は、本発明の実施の形態4に係る復号装置4Bを示すブロック図である。
 復号装置4Bは、被検体100内の動画像データを取得し、取得した動画像データを復号するワークステーションとして構成され、図14に示すように、上述した実施の形態1で説明した復号装置4と略同様の機能及び構成(メモリ部42及び制御部43)を有する。この復号装置4Bは、メモリ部42及び制御部43の他、リーダライタ44と、キーボード及びマウス等の入力部45と、液晶ディスプレイ等の表示部46等を備える。
 リーダライタ44は、当該リーダライタ44に記録媒体6が挿着された際に、制御部43による制御の下、記録媒体6に保存された動画像データを取り込む。すなわち、リーダライタ44は、本発明に係るデータ取得部として機能する。
 また、リーダライタ44は、取り込んだ動画像データを制御部43に転送する。制御部43に転送された動画像データは、メモリ部42に記憶される。
 そして、制御部43は、上述した実施の形態1で説明した復号装置4と同様に、復号処理や補間処理等を実施し、動画像ファイルを作成する。また、制御部43は、ユーザによる入力部45への入力操作に応じて、動画像ファイルに基づく動画像(被検体100の体内映像)を表示部46に表示する。
 なお、上述した実施の形態1では、復号部431は、対象フレームに対して時系列的に「直前」のキーフレームを用いて初期値となる第2対数尤度比qi,0を算出し、当該第2対数尤度比qi,0を用いて繰り返し復号(以下、順方向の繰り返し復号と記載)を実施していた。
 これに対して本実施の形態4では、復号部431は、順方向の繰り返し復号の他、対象フレームに対して時系列的に「直後」のキーフレームを用いて初期値となる第2対数尤度比qi,0を算出し、当該第2対数尤度比qi,0を用いた繰り返し復号(以下、トレースバック方向の繰り返し復号と記載)をも実施する。
 そして、制御部43は、順方向及びトレースバック方向の各繰り返し復号後にそれぞれ推定される各第1ビットプレーンのうち、全ての画素においてパリティ検査で誤りなしと判定された第1ビットプレーンを用いて動画像ファイルを作成する。ここで、順方向及びトレースバック方向の各繰り返し復号後にそれぞれ推定される各第1ビットプレーンの双方がパリティ検査で誤りなしまたは誤りありと判定された場合には、いずれの第1ビットプレーンを採用しても構わない。
 なお、順方向及びトレースバック方向の各繰り返し復号後に推定される各第1ビットプレーンのうち、全ての画素において上述した実施の形態3で説明した条件(事後対数尤度比の絶対値が第1閾値未満となるビットの数が第2閾値よりも多い)を満たす第1ビットプレーンを用いて動画像ファイルを作成しても構わない。ここで、順方向及びトレースバック方向の各繰り返し復号後にそれぞれ推定される各第1ビットプレーンの双方が上述した条件を満たす場合または上述した条件を満たさない場合には、いずれの第1ビットプレーンを採用しても構わない。
 以上、説明した本発明の実施の形態4では、上述した実施の形態1と同様の効果の他、以下の効果を奏する。
 本実施の形態4では、復号部431は、順方向及びトレースバック方向の双方の繰り返し復号を実施する。
 例えば、キーフレームと非キーフレームとの比率が1:4の場合、すなわち、5フレームに1枚の頻度でキーフレームとする場合(例えば図4に示す場合)を想定する。
 この場合には、第2,第3フレーム目の非キーフレームは、第6フレーム目のキーフレーム(時系列的に「直後」のキーフレーム)よりも第1フレーム目のキーフレーム(時系列的に「直前」のキーフレーム)の方が時間的に接近しているため、高い相関を有する。同様に、第4,第5フレーム目の非キーフレームは、第1フレーム目のキーフレーム(時系列的に「直前」のキーフレーム)よりも第6フレーム目のキーフレーム(時系列的に「直後」のキーフレーム)の方が時間的に接近しているため、高い相関を有する。
 このため、第2,第3フレーム目の非キーフレームについては、高い相関を有する時系列的に「直前」の第1フレーム目のキーフレームを用いた順方向の繰り返し復号により、高い確度で第1ビットプレーンを推定できる。また、第4,第5フレーム目の非キーフレームについては、高い相関を有する時系列的に「直後」の第6フレーム目のキーフレームを用いたトレースバック方向の繰り返し復号により、高い確度で第1ビットプレーンを推定できる。
 したがって、第2~第5フレーム目の全ての非キーフレームについて、高い確度で第1ビットプレーンを推定でき、カプセル型内視鏡3Bにて生成された動画像データに対して画質低下の抑制された動画像ファイルを作成することができる。
 なお、上述した実施の形態4では、上述した実施の形態1で説明した撮像システム1をカプセル型内視鏡システム1Bに適用していたが、上述した実施の形態2や実施の形態3で説明した撮像システム1,1Aをカプセル型内視鏡システムに適用しても構わない。また、本発明に係る撮像システムは、その他のシステムにも適用可能である。例えば、本発明に係る撮像システムは、本発明に係る撮像デバイスとして機能する監視カメラと本発明に係る復号装置とを備えた監視カメラシステムにも適用可能である。
 また、上述した実施の形態4において、受信装置5に上述した実施の形態1で説明した復号装置4の機能及び構成(メモリ部42及び制御部43)を持たせた構成としても構わない。
 さらに、上述した実施の形態4では、ワークステーションとして機能する復号装置4Bに本発明に係る復号装置としての機能を持たせていたが、これに限られない。例えば、外部のクラウドコンピュータに本発明に係る復号装置の機能を持たせ、受信装置5にて受信されたカプセル型内視鏡3Bからの動画像データを当該クラウドコンピュータに送信し、当該クラウドコンピュータにて動画像データを復号する。そして、当該クラウドコンピュータは、復号した動画像データをユーザの機器で復号化しやすいJPEGやMPEGに符号化し、ユーザに配信する。
(その他の実施形態)
 なお、上述した実施の形態1~4では、撮像デバイス3(カプセル型内視鏡3B)は、非キーフレームから第1,第2ビットプレーンを生成し、第1ビットプレーンに対して符号化処理を施していた(非キーフレームの一部に対して符号化処理を施していた)が、これに限られない。例えば、非キーフレームを第1,第2ビットプレーンに分割せずに、非キーフレーム全体に対して符号化処理を施しても構わない。すなわち、撮像デバイス3(カプセル型内視鏡3B)において、ビットプレーン生成部321及び間引き処理部323を省略した構成を採用しても構わない。
 上記のように撮像デバイス3(カプセル型内視鏡3B)を構成した場合には、復号装置4(4A)についても補間処理部434を省略した構成とすればよい。
 また、上述した実施の形態1~4では、符号化処理及び間引き処理を行う機能と、復号処理及び補間処理等を行う機能をソフトウェアで構成していたが、本発明は、これに限られず、これらの機能をハードウェアで構成しても構わない。
 さらに、上述した実施の形態1~4では、撮像デバイス3(カプセル型内視鏡3B)は、符号化処理(ステップS4)を間引き処理(ステップS5)よりも先に実施していたが、これに限られない。例えば、間引き処理を符号化処理よりも先に実施してもよく、あるいは、符号化処理及び間引き処理を並列に実施しても構わない。
 同様に、復号装置4(復号装置4A,4B)は、補間処理(ステップS8)を復号処理(ステップS9)よりも先に実施していたが、これに限られない。例えば、復号処理を補間処理よりも先に実施してもよく、あるいは、補間処理及び復号処理を並列に実施しても構わない。
 また、上述した実施の形態1~4では、キーフレームについては符号化処理が実施されていなかったが、これに限られず、キーフレームに誤り訂正符号を入れても構わない。
 1,1A 撮像システム
 1B カプセル型内視鏡システム
 2 無線伝送系
 3 撮像デバイス
 3B カプセル型内視鏡
 4,4A,4B 復号装置
 5 受信装置
 5a~5h 受信アンテナ
 6 記録媒体
 31 撮像部
 32 制御部
 33 送信部
 41 受信部
 42 メモリ部
 43,43A 制御部
 44 リーダライタ
 45 入力部
 46 表示部
 311 撮像素子
 312 信号処理部
 313 グレイ符号化部
 314 振分部
 321 ビットプレーン生成部
 322 符号化部
 323 間引き処理部
 431 復号部
 431A 第1対数尤度比算出部
 431B 第2対数尤度比算出部
 431C 推定部
 432 誤り検出部
 433,433A 表示判定部
 434 補間処理部
 435 合成部
 436 グレイ復号部

Claims (16)

  1.  撮像デバイスにて符号化された画像データを復号する復号装置において、
     前記撮像デバイスにて生成されたキーフレーム、及び前記撮像デバイスにて生成されるとともに少なくとも一部に符号化処理が施された非キーフレームを取得するデータ取得部と、
     フレーム間の画素値相関特性に関する特性情報を記憶する特性情報記憶部と、
     前記少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と、前記キーフレーム、及び前記特性情報記憶部に記憶された前記特性情報から得られる第2対数尤度比とに基づいて、確率伝播法による繰り返し復号を実施し、前記符号化処理前の非キーフレームを推定する復号部とを備える
     ことを特徴とする復号装置。
  2.  前記データ取得部は、
     前記キーフレーム、前記撮像デバイスにて前記非キーフレームから生成されるとともに前記符号化処理が施された第1ビットプレーン、及び前記撮像デバイスにて前記非キーフレームから生成されるとともに間引き処理が施された第2ビットプレーンを取得し、
     前記復号部は、
     前記符号化処理後の第1ビットプレーンから得られる前記第1対数尤度比と前記第2対数尤度比とに基づいて確率伝播法による前記繰り返し復号を実施して、前記符号化処理前の第1ビットプレーンを推定し、
     当該復号装置は、
     前記間引き処理後の第2ビットプレーンに対して補間処理を施す補間処理部を備える
     ことを特徴とする請求項1に記載の復号装置。
  3.  前記第1ビットプレーンは、
     上位側のビットが割り当てられたビットプレーンであり、
     前記第2ビットプレーンは、
     下位側のビットが割り当てられたビットプレーンである
     ことを特徴とする請求項2に記載の復号装置。
  4.  前記特性情報記憶部は、
     異なる前記特性情報を複数記憶し、
     前記復号部は、
     前記第2対数尤度比を、前記キーフレーム、及び前記複数の特性情報のうち従前に用いた前記特性情報とは異なる前記特性情報から得られる第2対数尤度比に変更して、前記繰り返し復号を再度、実施する
     ことを特徴とする請求項1~3のいずれか一つに記載の復号装置。
  5.  前記復号部は、
     前記第1対数尤度比と、前記データ取得部にて時系列的に前記非キーフレームの直前に取得された前記キーフレーム、及び前記特性情報から得られる前記第2対数尤度比とに基づく順方向の前記繰り返し復号と、
     前記第1対数尤度比と、前記データ取得部にて時系列的に前記非キーフレームの直後に取得された前記キーフレーム、及び前記特性情報から得られる前記第2対数尤度比とに基づくトレースバック方向の前記繰り返し復号とを実施する
     ことを特徴とする請求項1~4のいずれか一つに記載の復号装置。
  6.  前記復号部により前記繰り返し復号後に推定された前記非キーフレームに対してパリティ検査を行い、誤りがあるか否かを検出する誤り検出部を備え、
     前記復号部は、
     前記誤り検出部による検出結果に基づいて、前記順方向の繰り返し復号後に推定した前記非キーフレーム、または前記トレースバック方向の繰り返し復号後に推定した前記非キーフレームを復号結果として出力する
     ことを特徴とする請求項5に記載の復号装置。
  7.  前記復号部は、
     前記順方向の繰り返し復号後の事後対数尤度比、及び前記トレースバック方向の繰り返し復号後の事後対数尤度比に基づいて、前記順方向の繰り返し復号後に推定した前記非キーフレーム、または前記トレースバック方向の繰り返し復号後に推定した前記非キーフレームを復号結果として出力する
     ことを特徴とする請求項5に記載の復号装置。
  8.  前記復号部により前記繰り返し復号後に推定された前記非キーフレームを表示対象とするか否かの判定処理を実施する表示判定部を備える
     ことを特徴とする請求項1~7のいずれか一つに記載の復号装置。
  9.  前記復号部により前記繰り返し復号後に推定された前記非キーフレームに対してパリティ検査を行い、誤りがあるか否かを検出する誤り検出部を備え、
     前記表示判定部は、
     前記誤り検出部による検出結果に基づいて、前記判定処理を実施する
     ことを特徴とする請求項8に記載の復号装置。
  10.  前記表示判定部は、
     前記復号部による前記繰り返し復号後の事後対数尤度比に基づいて、前記判定処理を実施する
     ことを特徴とする請求項8に記載の復号装置。
  11.  被写体を撮像することにより生成した画像データを符号化して送信する撮像デバイスと、符号化された前記画像データを受信して復号する復号装置とを備えた撮像システムにおいて、
     前記撮像デバイスは、
     被写体を撮像することにより画像データを生成し、当該画像データをキーフレーム及び非キーフレームに振り分ける撮像部と、
     前記非キーフレームの少なくとも一部に対して符号化処理を施す符号化部と、
     前記キーフレーム、及び前記少なくとも一部に符号化処理が施された非キーフレームを送信する送信部とを備え、
     前記復号装置は、
     前記キーフレーム、及び前記少なくとも一部に符号化処理が施された非キーフレームを受信する受信部と、
     フレーム間の画素値相関特性に関する特性情報を記憶する特性情報記憶部と、
     前記少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と、前記キーフレーム、及び前記特性情報記憶部に記憶された前記特性情報から得られる第2対数尤度比とに基づいて、確率伝播法による繰り返し復号を実施し、前記符号化処理前の非キーフレームを推定する復号部とを備える
     ことを特徴とする撮像システム。
  12.  前記符号化処理は、
     パリティ検査行列を用いたシンドローム符号化である
     ことを特徴とする請求項11に記載の撮像システム。
  13.  前記撮像デバイスは、
     被検体内に導入可能とするカプセル型内視鏡である
     ことを特徴とする請求項11または12に記載の撮像システム。
  14.  撮像デバイスにて符号化された画像データを復号する復号装置が実行する復号方法において、
     前記撮像デバイスにて生成されたキーフレーム、及び前記撮像デバイスにて生成されるとともに少なくとも一部に符号化処理が施された非キーフレームを取得するデータ取得ステップと、
     前記少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と、前記キーフレーム、及びフレーム間の画素値相関特性に関する特性情報から得られる第2対数尤度比とに基づいて、確率伝播法による繰り返し復号を実施し、前記符号化処理前の非キーフレームを推定する復号ステップとを有する
     ことを特徴とする復号方法。
  15.  被写体を撮像することにより生成した画像データを符号化して送信する撮像デバイスと、符号化された前記画像データを受信して復号する復号装置とを備えた撮像システムが行う符号化復号方法において、
     前記撮像デバイスが、
     被写体を撮像することにより生成した画像データをキーフレーム及び非キーフレームに振り分ける振り分けステップと、
     前記非キーフレームの少なくとも一部に対して符号化処理を施す符号化ステップと、
     前記キーフレーム、及び前記少なくとも一部に符号化処理が施された非キーフレームを送信する送信ステップとを実行し、
     前記復号装置が、
     前記キーフレーム、及び前記少なくとも一部に符号化処理が施された非キーフレームを受信する受信ステップと、
     前記少なくとも一部に符号化処理が施された非キーフレームから得られる第1対数尤度比と、前記キーフレーム、及びフレーム間の画素値相関特性に関する特性情報から得られる第2対数尤度比とに基づいて、確率伝播法による繰り返し復号を実施し、前記符号化処理前の非キーフレームを推定する復号ステップとを実行する
     ことを特徴とする符号化復号方法。
  16.  請求項14に記載の復号方法を復号装置に実行させる
     ことを特徴とする復号プログラム。
PCT/JP2015/058128 2014-09-03 2015-03-18 復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム WO2016035367A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015556324A JP5876201B1 (ja) 2014-09-03 2015-03-18 復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014179365 2014-09-03
JP2014-179365 2014-09-03

Publications (1)

Publication Number Publication Date
WO2016035367A1 true WO2016035367A1 (ja) 2016-03-10

Family

ID=55439442

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/058128 WO2016035367A1 (ja) 2014-09-03 2015-03-18 復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム

Country Status (1)

Country Link
WO (1) WO2016035367A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141617A (ja) * 2007-12-05 2009-06-25 National Institute Of Information & Communication Technology 撮像システム
US20100080289A1 (en) * 2008-09-26 2010-04-01 Sungkyunkwan University Foundation For Corporate Collaboration Distributed video encoder and decoder and distributed video decoding method
US20120033741A1 (en) * 2010-08-03 2012-02-09 Canon Kabushiki Kaisha Decoding of a digital signal comprising at least one sample

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141617A (ja) * 2007-12-05 2009-06-25 National Institute Of Information & Communication Technology 撮像システム
US20100080289A1 (en) * 2008-09-26 2010-04-01 Sungkyunkwan University Foundation For Corporate Collaboration Distributed video encoder and decoder and distributed video decoding method
US20120033741A1 (en) * 2010-08-03 2012-02-09 Canon Kabushiki Kaisha Decoding of a digital signal comprising at least one sample

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DENIS KUBASOV ET AL.: "A Hybrid Encoder/Decoder Rate Control for Wyner-Ziv Video Coding with a Feedback Channel", IEEE 9TH WORKSHOP ON MULTIMEDIA SIGNAL PROCESSING (MMSP 2007), October 2007 (2007-10-01), pages 251 - 254, XP031197824 *
JEFFREY J. MICALLEF ET AL.: "Improved Wyner-Ziv video coding efficiency using bit plane prediction", 18TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), September 2011 (2011-09-01), pages 2637 - 2640, XP032080214, DOI: doi:10.1109/ICIP.2011.6116208 *
LINA STANKOVIC ET AL.: "Correlation estimation with particle-based belief propagation for distributed video coding", IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP 2011, May 2011 (2011-05-01), pages 1505 - 1508, XP032001111, DOI: doi:10.1109/ICASSP.2011.5946779 *
SHUANG WANG ET AL.: "Adaptive Correlation Estimation with Particle Filtering for Distributed Video Coding", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 22, no. 5, May 2012 (2012-05-01), pages 649 - 658, XP011443094, DOI: doi:10.1109/TCSVT.2011.2171263 *

Similar Documents

Publication Publication Date Title
WO2016035368A1 (ja) 復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム
US20130266078A1 (en) Method and device for correlation channel estimation
US20130251257A1 (en) Image encoding device and image encoding method
US10051276B2 (en) Image encoding apparatus, method and imaging apparatus
Turcza et al. Near-lossless energy-efficient image compression algorithm for wireless capsule endoscopy
JP2014533466A (ja) 超低レイテンシー映像通信
ES2958762T3 (es) Aparatos, métodos, programas de ordenador y medios legibles por ordenador
JP2010283606A (ja) エラー訂正用データの生成装置、及び生成方法
TWI458272B (zh) 正交多重描述寫碼
US8086056B2 (en) Encoding device and method, decoding device and method, and program
Yeo et al. Robust distributed multiview video compression for wireless camera networks
JP2015220687A (ja) 信号処理システム、復元装置、圧縮装置、信号処理方法、復元方法、および、コンピュータ・プログラム
JP5876201B1 (ja) 復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム
JP4878025B2 (ja) 撮像システム
WO2016035367A1 (ja) 復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム
JP5806790B1 (ja) 復号装置、撮像システム、復号方法、符号化復号方法、及び復号プログラム
US8014612B2 (en) Image processing device and method for compressing and decompressing images
JP3955909B2 (ja) 画像信号処理装置及びその方法
JPH08274650A (ja) ハフマン符号を表すデータ構造を生成する方法およびハフマン符号を生成する方法およびその装置
US10334155B2 (en) Imaging device and capsule endoscope
Takizawa et al. Low-complexity video encoding method for wireless image transmission in capsule endoscope
Liu et al. Distributed compressed video sensing in camera sensor networks
US20230016302A1 (en) Task-oriented dynamic mesh compression using occupancy networks
EP3024236A1 (en) Method and device for transmission of a video
JP2007329946A (ja) カプセル内視鏡システム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2015556324

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15838334

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15838334

Country of ref document: EP

Kind code of ref document: A1