WO2004004363A1 - 画像符号化装置、画像送信装置および画像撮影装置 - Google Patents

画像符号化装置、画像送信装置および画像撮影装置 Download PDF

Info

Publication number
WO2004004363A1
WO2004004363A1 PCT/JP2003/008301 JP0308301W WO2004004363A1 WO 2004004363 A1 WO2004004363 A1 WO 2004004363A1 JP 0308301 W JP0308301 W JP 0308301W WO 2004004363 A1 WO2004004363 A1 WO 2004004363A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
information
encoded
encoding
Prior art date
Application number
PCT/JP2003/008301
Other languages
English (en)
French (fr)
Inventor
Hiroyuki Katata
Toshio Nomura
Tadashi Uchiumi
Norio Ito
Shuichi Watanabe
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to AU2003244155A priority Critical patent/AU2003244155A1/en
Priority to JP2004517331A priority patent/JPWO2004004363A1/ja
Publication of WO2004004363A1 publication Critical patent/WO2004004363A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream

Definitions

  • Image coding device image transmitting device and image capturing device
  • the present invention relates to an image coding apparatus, an image transmission apparatus, and an image capturing apparatus that code-decode image data such as a panoramic three-dimensional image.
  • the left-eye panoramic image and the right-eye panoramic image are displayed so that the user can view the panoramic three-dimensional image by viewing each image with each eye. .
  • the image may be too large or distorted and the details may not be known. That's normal.
  • a configuration as generally shown in FIG. 24 is shown as a method of extracting a designated region from a panoramic image by data processing and combining two still images having different viewpoints to display a stereoscopic image.
  • the area specifying means a is a means for the user to specify an arbitrary rectangular area in the panoramic image, and outputs a signal for specifying the specified rectangular area to the image extracting means b.
  • the image extracting means b is means for extracting a designated rectangular area (image for left eye, image for right eye) from the panoramic image for left eye and the panoramic image for right eye.
  • the three-dimensional display means c is a means for three-dimensionally displaying the extracted image for the left eye and the image for the right eye, and there are various types of stereoscopic image displays.
  • Fig. 25 shows a left-eye panoramic image and a right-eye panoramic image.
  • Fig. 26 shows a panoramic stereo image as shown in Fig. 25.
  • the left-eye camera L and the right-eye camera R that rotate in the left and right directions respectively combined with their respective fields of view L 1 (the range shown by the solid line ) And R 1 (the range indicated by the dotted line) and the actual shooting area f.
  • the number of pixels (resolution) for representing the panoramic image is larger than that of a general image.
  • the resolution of a standard digital television image is 7 2 0 x 4 8 0 pixels
  • the resolution of a panoramic image is, for example, 6 0 0 0 x 4 0 pixels. Therefore, when accumulating or transmitting such a panoramic image, it becomes very problematic that the amount of data becomes enormous.
  • the camera shown in FIG. 26 is not suitable for a moving subject because it takes a wide-field image by moving it to the left and right. Therefore, it was not possible to easily obtain a panoramic stereo image of a moving image.
  • An object of the present invention is to solve such a problem and to provide an image code device or an image transmitting device capable of efficiently storing or transmitting a panoramic image, and easily providing a panoramic stereo image of a moving image. It is an object of the present invention to provide an imaging device that can be obtained. Disclosure of the invention
  • the present invention has the following configuration in order to achieve the above object.
  • an image input unit for inputting an image
  • a division unit for dividing an input image into small screens
  • an encoding unit for coding each small screen image
  • coding information
  • a management information adding unit for adding information indicating the position in the entire encoded data of the small screen image encoded data.
  • an image reducing means for reducing an image and a reduced image encoding means for encoding a reduced image.
  • a reduced image encoding means for encoding a reduced image.
  • the third aspect of the present invention is characterized in that the image information is moving image information, and the additional information to the encoded information includes information indicating the position of the designated time of the small screen image 1 or It is an image code device according to the second aspect.
  • a fourth aspect of the present invention is the separation of management information from encoded information to which management information including the position in the entire encoded data of the small screen image encoded image is added.
  • Means, search means for searching the code position of the small screen image based on the designated position from all coded data based on the separated management information, and coded data of the small screen image based on the searched designated position It is an image transmitting apparatus characterized by including transmitting means.
  • a management information separation system for separating management information from encoded information to which management information including the position in the entire encoded data of the small screen image encoded image is added.
  • Means search means for searching the encoded data of the small screen image based on the designated position from all coded data based on the separated management information, and decoding code data of the small screen image based on the searched designated position Decoding means, cutout means for cutting out a predetermined area of the decoded small screen image data, re-encoding means for re-encoding image data of the cut-out predetermined area, and predetermined area re-encoded
  • an image transmission device for transmitting the image data.
  • a sixth aspect of the present invention is characterized by comprising combining means for combining the image data of the cut out predetermined area, re-encoding the combined data by the re-encoding means, and transmitting from the transmitting means.
  • the image transmitting apparatus according to the item 5.
  • a seventh aspect of the present invention is the image transmitting apparatus according to the fifth or sixth aspect, wherein the transmitting means transmits a predetermined reduced image of the image before being divided into the small screen image.
  • the eighth aspect of the present invention is to have two or more photographing means, pair the two photographing means to photograph an image for stereoscopic vision, and use the photographed image of the photographing means of the pair as image data of the stereoscopic image It is an image photographing device characterized by producing.
  • a ninth aspect of the present invention there are three or more photographing means, and two photographing means are paired to photograph an image for stereoscopic vision, each pair photographing a stereoscopic image in different directions, and each pair Image data of a three-dimensional image is created from images captured by the image capturing means of the present invention, and one image capturing means is an image capturing apparatus characterized by forming a plurality of pairs with other image capturing means.
  • an image inputting means comprising: image data for stereoscopic vision comprising an image for the left eye and an image for the right eye, and any one of the points 1 to 3
  • image data for stereoscopic vision comprising an image for the left eye and an image for the right eye, and any one of the points 1 to 3
  • an image input means comprising: an image input means; and a three-dimensional image of the outline 8 or 9 as described in any one of the first to third aspects. Device.
  • the input stereoscopic image data information indicating what kind of image the stereoscopic image is composed of, and information indicating the direction of each image are added. It is an image coding apparatus according to the summary 11, characterized in that it is added as information.
  • FIG. 1 is an entire system explanatory diagram of an encoding device, a transmitting device, and a receiving device according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing the coding apparatus according to the first embodiment.
  • FIG. 3 is an explanatory diagram of an example in which left and right eye panoramic images according to the first embodiment are divided.
  • FIG. 4 is an explanatory view of each frame when the left-eye panoramic image of FIG. 3 is a moving image.
  • FIG. 5 is an illustration of an example in the case of encoding a panoramic video by MPEG-4.
  • FIG. 6 is an explanatory diagram of an example of encoded data of each tile combined with management information.
  • FIG. 7 is a chart showing an example of management information, wherein (1) is an explanatory view of a time access table to encoded data, and (2) is an explanatory view of a random access table to designated time.
  • FIG. 8 is a block diagram showing a transmitter according to the first embodiment.
  • FIG. 9 is a diagram for explaining the relationship between a panoramic image and a display position.
  • FIG. 10 is a block diagram showing a receiver according to a second embodiment.
  • FIG. 11 is an explanatory view of a visual field and an imaging range using two omnidirectional cameras.
  • FIG. 12 shows an example of an image by the omnidirectional camera 1 and an example of an image by the omnidirectional camera 2.
  • FIG. 13 shows an example of the image of FIG. 12 divided into tiles.
  • Figure 14 shows an example of storing the encoding data of each tile.
  • Fig. 15 shows an example where cameras are arranged to enable stereoscopic viewing with an omnidirectional camera.
  • Figure 16 shows an example of an image with omnidirectional cameras 1, 2 and 3.
  • FIG. 17 shows an example in which the image of FIG. 16 is divided into tiles.
  • FIG. 18 shows an example of storing encoded data of each tile together with management information.
  • FIG. 19 is a block diagram of a transmitter according to a fourth embodiment.
  • FIG. 20 is an explanatory diagram of an example of an image obtained by combining the cutout images for the left eye and the right eye.
  • FIG. 21 is an explanatory diagram of an example of an image in which the reduced panoramic image is combined with the cut-out image for the left eye and the right eye.
  • FIG. 22 is an explanatory diagram of another example of an image in which the reduced panoramic image is combined with the cut-out image for the left eye and the right eye.
  • Fig. 23 shows an image obtained by combining the reduced panoramic image with the cutout image for the left eye and the right eye Is an explanatory view of an example in which the padding area is filled.
  • FIG. 24 is an explanatory diagram of a method of displaying a stereoscopic image by combining two still images having different general viewpoints.
  • Figure 25 shows an example of a panoramic image for the left eye and a panoramic image for the right eye.
  • FIG. 26 is an explanatory diagram of each left camera that captures a panoramic stereo image.
  • FIG. 27 is a block diagram showing a receiver of the first embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is an overall system configuration diagram of the first embodiment.
  • a coding apparatus (A) for coding a panoramic image a storage apparatus (D) for storing coding data, and a stored code Specify the display position of the panoramic image to the transmitting device (B) that takes out part of the encoded data and transmits it to the receiving device, and the transmitting device (B), and receives the code information from the transmitting device.
  • It is a panoramic image transmission / reception system consisting of a receiving device (C) that decodes and displays.
  • symbol (E) is a wired or wireless network.
  • FIG. 2 is a block diagram showing the coding apparatus (A) of the first embodiment.
  • FIG. 2 takes an input section (image input means) 10 for capturing and digitizing a panoramic image and inputting the panoramic image, and the input panoramic image is a rectangle smaller than the entire panoramic image.
  • FIG. 3 shows an example in which the panoramic image is divided by the tile division unit 12 of FIG.
  • L is a panoramic image for the left eye
  • R is a panoramic image for the right eye
  • each is divided into five tiles.
  • the divided tiles are numbered 0, 1, 2, 3, 4 and the symbols for the left-eye panoramic image are 1 ⁇ 0 to Ding-4, and the tiles for the right-eye panoramic image are RT0 to RT4. If the size of each panoramic image is 6000x480 pixels, the size of each tile will be 1200x480 pixels.
  • each panoramic image is divided into 5 horizontal and 1 vertical tiles in this case, the method of tile division is not limited to this, and for example, it may be divided into 10 horizontal X 3 vertical and so on. Also, the size of each tile may be variable.
  • the encoding unit 14 in FIG. 2 is a part that compresses and encodes each tile.
  • encoding method international standard method for still images such as J PEG, J PEG 2000 when panoramic image is still image, MP EG-2 and MPEG-4 video when panoramic image is movie (panorama movie) International standard method is used.
  • J PEG Joint Photographic Experts Group
  • J PEG 2000 when panoramic image is still image
  • MP EG-2 and MPEG-4 video when panoramic image is movie (panorama movie)
  • proprietary methods other than international standard methods may be used.
  • each tile in FIG. 3 is not a single image but a plurality of frames displayed at predetermined time intervals.
  • Fig. 4 shows an example in which the left-eye image (panoramic moving image for left eye) of a panoramic moving image is tile-divided.
  • f 0, f 1, f 2, ⁇ ⁇ ⁇ indicates each frame of the video, for example, tile LT1 is a plurality of temporally continuous frames such as LT1 ⁇ 0, LTl fl, LT 1 f 2, ⁇ ⁇ ' It consists of An example of encoding a panoramic video by MP EG-4 is shown in FIG.
  • the frames to be encoded are frame numbers that are skipped as in LT1 f 0, LT 1 f 3, LT 1 f 5, and LT 1 f 10.
  • LT 1 f 0 is an intraframe coding frame (I frame)
  • LTl fl O is a frame that is predictively encoded from a LTl f 0 decoded frame (P frame)
  • LT 1 f 3 LTl
  • the f 5 is encoded as a frame (B frame) to be bi-directionally predictive encoded from the decoded frame of LT f O and LT f 10. like this
  • decoding is performed from an I frame in the vicinity (immediately or immediately after) of the frame to be accessed.
  • FIG. 7 shows an example of this management information (Table 1).
  • the coded data of each tile is combined and stored as shown in FIG. 6 together with the management information, and at this time, the information for enabling access to each tile is the management information.
  • the information for enabling access to each tile is the management information.
  • information that enables random access to the code at a designated time in the tile is also included.
  • Table 1 (1) in FIG. 7 shows management information for accessing the encoded data of each tile (including information indicating the position of the encoded data of each tile in all encoding data)
  • tile access table For example, it is indicated that the encoded data of tile L T 2 is present in the B 2nd byte (corresponding to information indicating the position) from the beginning of the data in FIG. Table 1 (1) also contains pointers to information (random access table) for accessing the specified time in the tile. For example, in the case of T 2 encoded data, it is indicated that the access table to the designated time is at the address P 2 in the management information.
  • Table 1 (2) in Figure 7 above is an example of an access table (random access table) to a designated time.
  • the times t 1, t 2, t 3,... 'March be set at equal intervals, or may be at arbitrary time intervals.
  • the encoded data corresponding to time t 3 is present at B t 3rd from the beginning of the tile code data, and the I frame encoded data is at a position that is I t 3 bytes back from that position. It is shown that there is.
  • the encoded data of I frame in the (BT 3 ⁇ It 3) byte from the head is decoded.
  • decoding P frame and B frame sequentially If the calculated number of bytes is counted and display is started when it is decoded by It 3 bytes, display at the specified time t 3 is performed.
  • the encoded data of the present invention divides the panoramic image into tiles, and stores information together with the encoded data to facilitate access to the code and data of each tile, as will be described later. , It is possible to take out part of the encoded data.
  • the encoded data is bucketed, and the header information of each bucket incorporates information indicating whether or not the beginning of the I frame is included. There is a case. At this time, for example, the table in Figure 7
  • the specified time t i and the number of bytes B i (i is a positive integer) up to the head of the corresponding packet are written in 1 (2).
  • the decoder accesses the bucket at the designated time t3, then proceeds to read the sign data while checking whether the bucket includes the beginning of the I frame, and from the packet including the I frame Decryption ⁇ Start display. (I will discard the previous packet)
  • FIG. 6 shows a state where management information and coding information are combined and stored.
  • the management information may be stored separately as a separate file from the encoding information.
  • the information for accessing the designated time may be included in the header information of the code data of each tile instead of in the management information as shown in Table 1 (2) of FIG. In that case, the third column of Table 1 (1) in Figure 7 (the pointer to the information to access the specified time in the tile) is not necessary.
  • management information and encoded data of each tile may be separate files.
  • the file name of the encoded data of each tile is written instead of the number of bytes from the beginning. Also, access to each tile is based on the file name.
  • FIG. 8 shows a transmitter according to the first embodiment.
  • the transmitting device shown in FIG. 8 is a management information separation unit (management information separation means) 20 for separating management information included in coding data, a display position (designated position) and a display from a receiver (C) or the like.
  • the tile designation unit 22 which inputs the size and designates the corresponding tile
  • the analysis unit 24 which analyzes the management information based on the management information and the display position and size, and the encoded data based on the analysis result
  • a random access unit (search means) 26 for random access and a transmission unit 28 for transmitting part of the randomly accessed encoded data.
  • the management information separation unit 20 shown in FIG. 8 separates management information from the data accumulated as shown in FIG.
  • the tile designating unit 22 shown in FIG. 8 inputs the display position and the size (in the case of a panoramic video, the display time further) sent from the receiving unit, and obtains a tile corresponding to the display position.
  • FIG. 9 is a view for explaining the relationship between a panoramic image and a display position.
  • the display position and size are represented by coordinates (a, b) and horizontal and vertical sizes (x, y) in the panoramic image, respectively. Since the size of the image that can be displayed on the display of the receiving device is usually fixed, the size (X, y) is fixed, and the receiving device (C) transmits only the display position (a, b) to the transmitting device (B). You may do so. Also, in order to make it easy to input the display position on the receiving unit side (the receiving device (C) side), reduced data of the panoramic image may be transmitted in advance.
  • the encoding device (A) further includes a panoramic image reduction unit (image reduction means), the input panoramic image is reduced, and the reduced panoramic image is encoded by the encoding unit 14 Accumulate with the data in Figure 6.
  • the transmitter (A) takes out the encoded data of the reduced panoramic image from the stored encoded data and transmits it to the receiver (C).
  • the encoded data may be decoded to confirm the reduced panoramic image, and transmit the desired display position and display size to the transmitting device.
  • the panoramic image is a moving image
  • the above-described reduced panoramic image is also a moving image
  • the receiving apparatus designates the display position and the display size as well as the display time t. For example, the reduced panoramic video is reproduced by the receiving apparatus, and a desired display area is determined during the reproduction, and the reproduction time at that time is designated as the display time t.
  • the tile designating unit 22 shown in FIG. 8 obtains a tile corresponding to the display position based on the display position and the size (and the display time).
  • the tiles specified are the tile numbers 1 and 2.
  • Such tile specification may be performed on the receiving device (C) side.
  • the tile designation unit 22 is provided not in the transmitter (B) but in the receiver (C), and the tile number of the tile to be designated instead of the display position and size is sent from the receiver to the transmitter It will be notified.
  • the analysis unit 24 of FIG. 8 applies to each of the left-eye panoramic image and the right-eye panoramic image. It analyzes the number of bytes from the beginning of the stored encoded data ⁇ encoding information of the specified tile.
  • the random access unit 26 shown in FIG. 8 randomly accesses the encoded data stored based on the analysis result and extracts the encoded data corresponding to the designated tile.
  • display of the specified tile's code data The code data after the I frame immediately before the time is taken out.
  • the random access table is created by the method illustrated in [Other access method]
  • the packet is read and discarded from the display time, and the encoded data from the time when the bucket including I frame is found is extracted.
  • search for a bucket including I frame and encode data after the point when the bucket including I frame is found. It may be taken out.
  • the transmitting section (transmitting means) 28 shown in FIG. 8 transmits the extracted encoded data to the receiving apparatus.
  • FIG. 27 shows an example of a receiver according to this embodiment.
  • Display position ⁇ Size determination unit 40 is a portion that determines a part of the panoramic image as a display area and notifies the transmission device. In addition to the display position and size, in the case of panorama moving images, the specified time is also notified.
  • Decoding part (decoding means) 30 is a part for decoding the transmitted code data.
  • the transmitted encoded data corresponds to one or more tiles including the display area, and therefore, a process of cutting out the display area by the cutout unit (cutout means) 32 is required.
  • the cutout unit 32 Based on the information determined by the display position and size determination unit 40, the cutout unit 32 cuts out a necessary display area from the decoded tiles, and outputs the clipped image to a stereoscopic display or the like for display. .
  • the cutout unit 32 does not output the image until the frame at the designated time is decoded. You can also. In order to perform such processing, it is assumed that "the number of bytes up to the immediately preceding I frame" shown in Table 2 (1) is notified from the transmitting apparatus to the receiving apparatus.
  • a portion of the panoramic image to be displayed on the receiving device is specified spatially and temporally, and a part of the stored encoded data is extracted and Since transmission is possible, panoramic images can be easily transmitted and displayed even on a transmission path with a small capacity.
  • the transmitter (B) is a code of a panoramic image created by the encoder (A). All the encoded data may be sent to the receiver (C). Alternatively, the encoded data may be passed to the receiver (C) using a large capacity recording medium (intermediately). Then, all the encoded data is stored in the receiver (C).
  • the display on the receiving device (C) side has a low resolution and can not display all of the stored panoramic images, so as shown in FIG. 10, the receiving device (C) transmits the transmitting device according to the first embodiment and A similar management information separation unit 20, tile specification unit 22, analysis unit 24 and random access unit 26 are provided, and a decoding unit 30 for decoding coding data is further provided, and a part of a panoramic image is provided.
  • Display position ⁇ Specify the size and display time, analyze management information, random access, and decode part of the code information and display on the display unit.
  • an omnidirectional camera shooting means
  • a third embodiment of the present invention will be described which can easily capture a stereoscopic panoramic moving image.
  • a stereoscopic panoramic image is obtained using a plurality of omnidirectional cameras.
  • the information indicating the range of A, B, C, and D can be derived from the characteristics of the omnidirectional camera, the camera dive and F (1, 2), F (2, 1), etc. Additional information Although it is not essential, it may be specified and included in the additional information, for the purpose of reducing the amount of processing to lead or changing the range according to the content.
  • FIG. 12 shows an example of data of an image by the omnidirectional camera 1 and an image by the omnidirectional camera 2.
  • the data in the range B and D are all data for one eye (for flat display).
  • FIG. 13 shows an example in which the image of FIG. 12 is divided into tiles.
  • the image for left eye of omnidirectional camera 1 is divided into tiles LT0 and LT1
  • the image for right eye is divided into tiles RTO and RT1
  • the image for one eye is divided into tiles MTO and MT1.
  • the image for the left eye is divided into tiles LT2 and LT3
  • the image for the right eye is divided into tiles RT2 and RT3
  • the image for one eye is divided into tiles MT2 and MT3.
  • FIG. 14 shows an example of storing encoded data of each tile together with management information.
  • the management information includes the tile access table described in the first embodiment, the random access table, and the additional information described above.
  • the additional information when F (1, 2) and F (2, 1) are represented by pixel positions (one-dimensional coordinate) in the horizontal direction on the panoramic image as shown in FIG.
  • the pixel position of) is the center of range A (the left end pixel position of tile LT1)
  • the pixel position of F (2, 1) is the center of range C (the pixel position of the left end of tile RT 1).
  • F (2, 1) can be obtained from the pixel position of F (1, 2) and the horizontal pixel count of the panoramic image, so only the information of F (1, 2) is included in the additional information. Can be included.
  • the encoded data of omnidirectional camera 1 is displayed at least in all T JP 2003/008301
  • the encoded data of the omnidirectional camera 2 records the encoding data only for the stereoscopically viewable area. That is, MT 2 and MT 3 are not encoded, or MT 2 and MT 3 code symbols are not recorded.
  • the tiles MT 2 and MT 3 for the one-eye image were dropped, but if the one-eye image is used among the encoded data, the tile data that does not include other cameras. Can also be used. That is, in the omnidirectional camera 1, the tile MT 0 in range B is dropped, the tile MT 1 in range D is left, in the omnidirectional camera 2 the tile MT 2 in range B is left, and the tile MT 3 in range D is dropped.
  • the method of dividing into tiles and the method of combining encoded data are not limited to the above example.
  • one tile may be divided so as to span both the range A and the range B.
  • all tiles may be encoded.
  • Figure 15 shows an example where three omnidirectional cameras are arranged to enable stereoscopic viewing in all orientations.
  • the type of camera indicating that it consists of three omnidirectional cameras
  • Coordinates corresponding to the position denoted as F (1, 2)
  • the coordinates corresponding to the front surface position when the camera 3 is used for the left eye and the camera 1 is used for the right eye represented as F (3, 1)
  • information indicating the range of E, F, G There is.
  • the information on E, F, and G is not essential to the additional information as in the case of A, B, C, and D described above, but may be explicitly included in the additional information to reduce the throughput.
  • Figure 16 shows an example of an image by omnidirectional camera 1, 2, 3. 1
  • FIG. 17 shows an example in which the image of FIG. 16 is divided into tiles.
  • FIG. 18 shows an example of storing encoded data of each tile together with management information.
  • the management information includes the tile access table described in the first embodiment, the random access table, and the additional information described above.
  • F (1, 2), F (2, 3), F (3, 1) are represented by pixel positions (one-dimensional coordinates) in the horizontal direction on the panoramic image as shown in Fig. 17.
  • F (1, 2), F (2, 3), F (3, 1) are represented by pixel positions (one-dimensional coordinates) in the horizontal direction on the panoramic image as shown in Fig. 17.
  • the third embodiment by using a plurality of omnidirectional cameras, it is possible to easily capture a panoramic panoramic image, and by not coding a part of the tiles, storage or storage can be performed. It is possible to reduce the amount of coded data to be transmitted.
  • the data decoded by the decoding unit 30 is cut out by the cutout unit 32 at the display position / size portion, and the synthesis unit (synthesis unit) Create a composite image with 3) 4). Then, the composite image is re-encoded by the re-encoding unit (re-encoding unit) 36 and transmitted by the transmission unit 28. In this way, the necessary part of the decoded image is cut out, synthesized, re-encoded and transmitted to minimize the amount of data.
  • the composite image can be, for example, a composite image of one frame in a state in which cut-out images for left eye and right eye are attached to right and left as shown in FIG.
  • a panoramic image that has been shrunk so that the whole image can be confirmed can also be a composite image of one frame attached to the upper side of the cut out left and right images.
  • a composite image in which the reduced panoramic image is attached to the beginning of the left and right cut-out images may be used.
  • information for separating the synthesized image by the receiving apparatus is added to the header portion of the encoded data.
  • information for separating the synthesized image by the receiving apparatus is added to the header portion of the encoded data.
  • such information may be included in the management information instead of the header part.
  • the receiver may be able to handle multiple encoded data.
  • the transmitting device independently encodes and transmits the reduced image and the cut out left and right images.
  • the method of notifying the transmitting device of the display position (a, b) and the display size (x, y) has been described, but the method of specifying the display area of the panoramic image is the same. It is not limited to In the embodiment of the present invention shown in FIG. 19 or the like, a method of specifying the cut position (A, B), the cut size (X, Y) and the display size (X, y) may be used.
  • the area where the transmitter cuts out from the panoramic image is represented by the cut position (A, B) and the cut size ( ⁇ , ⁇ ), and the size actually displayed on the receiver is (X, y). It shall represent.
  • An image encoding device, an image transmitting device, and an image capturing device efficiently encode and accumulate a stereoscopic image, particularly a stereoscopic still image or a panoramic stereoscopic moving image having a large amount of data and a large number of pixels (high resolution). And by transmitting and decoding via a network, it is possible to display the panoramic stereo image on the screen of the display device, and to easily transmit and display the panoramic image in a transmission path with a small capacity.
  • Suitable for The image capturing device according to the present invention is suitable for obtaining a panoramic image with a plurality of omnidirectional cameras.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

入力されたパノラマ画像をタイル分割部(12)で小画面の画像(タイル)に分割し、符号化部(14)で各タイルを独立に符号化することでデータ量を削減すると共に、管理情報付加部(16)ではタイルの符号化データの全符号化データ内での指定時刻における位置を示す情報を指定時刻にランダムアクセスするための管理情報として付加することで、パノラマ画像の一部を取り出して、容量の小さい伝送路でも送信することを可能とする画像符号化装置、画像送信装置および画像撮影装置を提供する。したがって、効率良くパノラマ画像を蓄積あるいは電送する動画像符号化・復号装置、および簡単に動画のパノラマ立体画像を得る撮影装置を構成できる。

Description

明 細 書 画像符号化装置、 画像送信装置および画像撮影装置 技術分野
本発明は、 パノラマ立体画像などの画像データを符号ィヒ ·復号する画像符号化 装置、 画像送信装置および画像撮影装置に関するものである。 背景技術
従来より、 パノラマ立体画像を表示装置に表示する際に、 左目用パノラマ画像 と右目用パノラマ画像を表示して、 ユーザはそれぞれの目でそれぞれの画像を見 てパノラマ立体画像を視認できるようにする。 この場合に、 パノラマ画像全体を 表示装置の画面に表示するのでは、 画像が大きすぎたり歪んでいたりして細部が 分からない場合があるので、 ユーザの好みの箇所を拡大 ·縮小して表示するのが 通常である。
そのような技術に関し、 データ処理によってパノラマ画像から指定領域を抽出 し、 視点の異なる 2枚の静止画像を合成して立体画像を表示する方法として、 一 般に図 2 4に示されるような構成をとる技術がある。
[図 2 4の構成の動作説明]
図 2 4において、 領域指定手段 aは、 ユーザがパノラマ画像中の任意の矩形領 域を指定するための手段であり、 指定した矩形領域を指定する信号を画像抽出手 段 bに出力する。
画像抽出手段 bは、 左目用パノラマ画像、 右目用パノラマ画像から、 指定され た矩形領域 (左目用画像、 右目用画像) を抽出する手段である。
立体表示手段 cは、 抽出された左目用画像、 右目用画像を立体表示する手段で あり、 種々の方式の立体画像ディスプレイがある。 図 2 5は、左目用パノラマ画像、右目用パノラマ画像を示す。また、図 2 6は、 図 2 5のようなパノラマ立体画像を撮影する、 それぞれが組み合わさつて左右に 回転する左目用カメラ Lと右目用カメラ Rとそれらの撮影視野 L 1 (実線で示し た範囲) と R 1 (点線で示した範囲) および実際の撮影領域 f を示す。
上記のように指定領域を抽出して表示するパノラマ画像では、 パノラマ画像を 表すための画素数 (解像度) が、 一般の画像に比べて大きい。 例えば標準デジ夕 ルテレビ画像の解像度が 7 2 0 x 4 8 0画素であるのに対して、 パノラマ画像の 解像度は例えば 6 0 0 0 x 4 8 0画素となる。 したがって、 このようなパノラマ 画像を蓄積あるいは伝送する場合、 データ量が膨大となることが非常に問題とな る。
また、前記図 2 6に示したカメラは左右に動かすことで広視野の画像を撮影す るものであるため、 動きのある被写体には適さない。 したがって、 動画のパノラ マ立体画像を簡単に得ることが出来なかった。
本発明はこのような問題を解決し、 効率良くパノラマ画像を蓄積あるいは伝送 可能にする画像符号ィヒ装置または画像送信装置を提供することを目的とし、 およ び簡単に動画のパノラマ立体画像を得ることを可能とする撮像装置を提供するこ とを目的とする。 発明の開示
本発明は、 上記の目的を達成するため、 次の構成を有する。
本発明の第 1の要旨は、 画像を入力する画像入力手段と、 入力された画像を小 画面に分割する分割手段と、 各小画面画像を符号化する符号化手段と、 符号化情 報に小画面画像の符号化データの全符号化データ内での位置を示す情報を付加す る管理情報付加手段とを有することを特徴とする画像符号化装置である。
本発明の第 2の要旨は、 画像の縮小処理をする画像縮小手段と、 縮小画像を符 号ィ匕する縮小画像符号化手段とを有することを特徴とする要旨 1に記載の画像符 号化装置である。
本発明の第 3の要旨は、 画像情報が動画像情報であり、 符号化情報への付加情 報には、 小画面画像の指定時刻の位置を示す情報を含むことを特徴とする要旨 1 または要旨 2に記載の画像符号ィヒ装置である。
本発明の第 4の要旨は、 画像が分割された小画面画像の符号化データの全符号 化データ内での位置を含む管理情報が付加された符号化情報から管理情報を分離 する管理情報分離手段と、 分離した管理情報に基き全符号化データから指定位置 に基づく小画面画像の符号ィヒデ一夕を検索する検索手段と、 検索された指定位置 に基づく小画面画像の符号化データを送信する送信手段とを有することを特徴と する画像送信装置である。
本発明の第 5の要旨は、 画像が分割された小画面画像の符号化データの全符号 化データ内での位置を含む管理情報が付加された符号化情報から管理情報を分離 する管理情報分離手段と、 分離した管理情報に基き全符号化デ一夕から指定位置 に基づく小画面画像の符号化データを検索する検索手段と、 検索された指定位置 に基づく小画面画像の符号ィヒデータを復号する復号手段と、 復号された小画面画 像デー夕のうちの所定領域を切り出す切り出し手段と、 切り出された所定領域の 画像データを再符号化する再符号化手段と、 再符号化された所定領域の画像デー 夕を送信する送信手段とを有することを特徴とする画像送信装置である。
本発明の第 6の要旨は、 切り出された所定領域の画像データを合成する合成手 段を有し、 合成データを再符号化手段で再符号化して、 送信手段から送信するこ とを特徴とする要旨 5に記載の画像送信装置である。
本発明の第 7の要旨は、 送信手段は、 小画面画像に分割する前の画像の所定の 縮小画像を送信することを特徴とする要旨 5または要旨 6に記載の画像送信装置 である。
本発明の第 8の要旨は、 2以上の撮影手段を有し、 2つの撮影手段をペアにし て立体視用の画像を撮影し、 ペアの撮影手段の撮影画像で立体画像の画像データ を作成することを特徴とする画像撮影装置である。
本発明の第 9の要旨は、 3以上の撮影手段を有し、 2つの撮影手段をペアにし て立体視用の画像を撮影し、 各ペアで互いに異なる方向の立体画像を撮影し、 各 ペアの撮影手段の撮影画像で立体画像の画像データを作成するものであり、 1つ の撮影手段は他の撮影手段と複数のペアを構成することを特徴とする画像撮影装 置である。
本発明の第 1 0の要旨は、 画像入力手段に、 左目用画像、 右目用画像からなる 立体視用の画像データを入力することを特徴とする要旨 1から要旨 3のうちのい ずれか 1に記載の画像符号化装置である。
本発明の第 1 1の要旨は、 画像入力手段に、 要旨 8または要旨 9の作成立体画 像を入力することを特徴とする要旨 1から要旨 3のうちのいずれか 1に記載の画 像符号化装置である。
本発明の第 1 2の要旨は、 入力する立体視用画像データには、 立体視用の画像 が何の種類の画像からなるかを示す情報と、 各画像の方向を示す情報とが付加情 報として付加されていることを特徴とする要旨 1 1に記載の画像符号化装置であ る。
本発明においては、 効率良くパノラマ画像を蓄積あるいは伝送する動画像符号 化 '復号装置、 および簡単に動画のパノラマ立体画像を得る撮影装置を構成でき る。 図面の簡単な説明
図 1は、 本発明の第 1の実施形態に係る符号化装置、 送信装置、 および受信装 置の全体システム説明図である。
図 2は、 第 1の実施形態に係る符号化装置を示すプロック図である。
図 3は、 第 1の実施形態に係る左目用、 右目用の各パノラマ画像を分割した例 の説明図である。 図 4は、 図 3の左目用パノラマ画像を動画像にした場合の各フレームの説明図 である。
図 5は、 パノラマ動画像を M P E G— 4で符号化する場合の例の説明である。 図 6は、 管理情報の結合された各タイルの符号化データの例の説明図である。 図 7は、管理情報の例を示す図表であって、 ( 1 )は符号化データへのタイムァ クセステーブルの説明図、 (2 )は指定時刻へのランダムアクセステーブルの説明 図である。
図 8は、 第 1の実施の形態の送信装置を示すプロック図である。
図 9は、 パノラマ画像と表示位置の関係を説明する図である。
図 1 0は、 第 2の実施形態の受信装置を示すブロック図である。
図 1 1は、 2個の全方位カメラを使用した視野および撮影範囲の説明図である。 図 1 2は、 全方位カメラ 1による画像と、 全方位カメラ 2による画像のデ一夕 例を示す。
図 1 3は、 図 1 2の画像をタイル分割した例を示す。
図 1 4は、 各タイルの符号化デ一夕を蓄積する例を示す。
図 1 5は、 全方位カメラで立体視が可能なようにカメラを配置した例を示す。 図 1 6は、 全方位力メラ 1 , 2 , 3による画像の例を示す。
図 1 7は、 図 1 6の画像をタイル分割した例を示す。
図 1 8は、 各タイルの符号化データを管理情報と共に蓄積する例を示す。
図 1 9は、 第 4実施形態の送信装置のブロック図である。
図 2 0は、左目用と右目用の切り出し画像を合成した画像の例の説明図である。 図 2 1は、 左目用と右目用の切り出し画像に縮小パノラマ画像を合成した画像 の例の説明図である。
図 2 2は、 左目用と右目用の切り出し画像に縮小パノラマ画像を合成した画像 の他の例の説明図である。
図 2 3は、 左目用と右目用の切り出し画像に縮小パノラマ画像を合成した画像 であってパディング領域を埋めた例の説明図である。
図 2 4は、 一般の視点の異なる 2枚の静止画像を合成して立体画像を表示する 方法の説明図である。
図 2 5は、 左目用パノラマ画像、 右目用パノラマ画像例を示す。
図 2 6は、 パノラマ立体画像を撮影する左おのカメラの説明図である。
図 2 7は、 第 1の実施形態の受信装置を示すブロック図である。 発明を実施するための最良の形態
以下、 図面を参照して本発明の実施の形態について説明する。
[第 1の実施の形態]
図 1は第 1の実施の形態の全体的なシステム構成図である。
図 1に示すように、 本発明における第 1の実施の形態は、 パノラマ画像を符号 化する符号化装置(A)、 符号化デ一夕を蓄積する蓄積装置(D) と、蓄積された 符号化データの一部を取り出し、 受信装置に送信する送信装置 (B) と、 送信装 置 (B) に対してパノラマ画像の表示位置を指定し、 送信装置からの符号ィヒデ一 タを受信して復号 ·表示する受信装置 (C) とから成るパノラマ画像送受信シス テムである。図 1において符号(E)は有線あるいは無線のネットワークである。 図 2は第 1の実施の形態の符号化装置 (A) を示すブロック図である。 図 2の 符号化装置 (A) は、 パノラマ画像を撮影 'デジタル化し、 パノラマ画像を入力 する入力部 (画像入力手段) 1 0と、 入力されたパノラマ画像を該パノラマ画像 の全体よりも小さい矩形等の領: ¾であって複数画素からなる小画面の画像 (以下 「タイル」 という) に分割するタイル分割部 (分割手段) 1 2と、 分割された各 タイルを符号化する符号化部 (符号化手段) 1 4と、 各タイルへのアクセスおよ びタイル内の指定時間へのランダムアクセスを行うための管理情報を、 符号化 データに付加する管理情報付加部 (管理情報付加手段) 1 6とを有して構成され る。 図 3は図 2のタイル分割部 12でパノラマ画像を分割した例を示す。 ここで、 Lは左目用パノラマ画像、 Rは右目用パノラマ画像とし、 それぞれが 5個のタイ ルに分割されたものとする。分割されたタイルの番号を 0, 1, 2, 3, 4とし、 左目用パノラマ画像のタィルに1^丁0〜 丁4、 右目用パノラマ画像のタイルに RT 0〜RT4と記号を付ける。 各パノラマ画像のサイズが 6000x480画 素の場合、 各タイルの大きさは 12 0 0x480画素となる。
なお、 ここでは各パノラマ画像を水平 5個 X垂直 1個のタイルに分割したが、 タイル分割の方法はこれに限るものではなく、 例えば水平 10個 X垂直 3個のよ うにより細かく分割しても良いし、 各タイルの大きさを可変としても良い。
図 2の符号化部 14は各タイルを圧縮符号化する部分である。 符号化方式とし て、 パノラマ画像が静止画の場合は J PEG, J PEG2000など静止画用の 国際標準方式、 パノラマ画像が動画 (パノラマ動画像) の場合は MP EG— 2, MPEG— 4など動画用の国際標準方式が用いられる。 もちろん、 国際標準方式 以外の独自方式を用いても良い。
また、 前記パノラマ動画像の場合、 図 3の各タイルは 1枚の画像ではなく所定 時間間隔で表示する複数のフレームからなる。 図 4に、 パノラマ動画像の左目用 画像(左目用パノラマ動画像) をタイル分割した例を示す。 f 0, f 1, f 2, · · · は動画の各フレームを示し、 例えばタイル LT1は LT1 ί 0, LTl f l, L T 1 f 2, · · 'のように時間的に連続した複数のフレームから構成される。 パノラマ動画像を MP EG— 4で符号化する場合の例を図 5に示す。 MPEG 一 4ではコマ落しを用いることが出来るため、 符号化されるフレームは LT1 f 0, LT 1 f 3, LT 1 f 5, LT 1 f 10のようにフレーム番号が飛び飛びに なっている。また、この例では LT 1 f 0をフレーム内符号化フレ一ム( Iフレー ム)、 LTl f l Oを LTl f 0の復号フレームから予測符号化するフレーム(P フレーム)、 LT 1 f 3, LTl f 5を LT f O, LTf l 0の復号フレームから 両方向予測符号化するフレーム (Bフレーム) として符号ィ匕している。 このよう な符号ィ匕方式で符号ィ匕されたデ一夕にランダムアクセスする場合、 後で述べるよ うに、 アクセスしたいフレームの近傍 (直前または直後) の Iフレームから復号 を行う。
図 2の管理情報付加部 1 6で付加される管理情報について説明する。 管理情報 の結合された各タイルの符号ィヒデ一夕の例を図 6に示す。 また、 この管理情報の 例 (表 1 ) を図 7に示す。
各タイルの符号化データは、 管理情報と共に図 6に示すように結合されて蓄積 されるが、 この時、 各タイルへのアクセスを可能とするための情報が管理情報で ある。 パノラマ動画像の場合は、 タイルへのアクセスと共に、 タイル内の指定時 刻の符号ィ匕デ一夕へのランダムアクセスを可能とする情報も含まれる。
図 7の表 1 ( 1 )は、 各タイルの符号化データへのアクセスを行うための管理情 報 (全符号化デ一夕内での各タイルの符号化データの位置を示す情報を含む) の 1例のタイルアクセステーブルある。 例えばタイル L T 2の符号化データは、 図 6のデ一夕の先頭から B 2バイト目 (位置を示す情報に相当) に存在することを 示している。 表 1 ( 1 ) にはさらに、 タイル内での指定時刻へのアクセスを行う ための情報 (ランダムアクセステ一ブル) へのポインタが記載されている。 例え ば T 2の符号化データの場合、 指定時刻へのアクセステーブルは管理情報内の アドレス P 2にあることが示される。
また、 前記図 7の表 1 ( 2 ) は、 指定時刻へのアクセステーブル (ランダムァ クセステ一ブル) の例である。 この表において時刻 t 1 , t 2 , t 3 , · · 'は等 間隔に設定されていても良いし、 任意の時間間隔であっても良い。 例えば時刻 t 3に対応する符号化データは、 タイルの符号ィ匕データの先頭から B t 3ノ rト目 に存在し、 その位置から I t 3バイト遡った位置に Iフレームの符号化データが あることが示されている。 復号装置においてタイルの復号データを時刻 t 3から 表示したい場合、 まず、 先頭から(B T 3— I t 3 )バイト目にある Iフレームの 符号化データを復号する。 次に、 順次 Pフレームや Bフレームを復号しつつ復号 したバイ卜数をカウン卜し、 I t 3バイトだけ復号した時点で表示を開始すれば、 指定した時刻 t 3の表示が行われる。
以上のようにして、膨大なデータ量を持つパノラマ画像が効率よく符号化され、 蓄積される。 本発明の符号化データは、 パノラマ画像をタイルに分割し、 各タイ ルの符号ィ匕デ一夕へのアクセスを容易にするための情報を符号化データと共に蓄 積するため、後述するように、符号化データの一部を取り出すことが可能となる。
[その他のアクセス方法]
( a) テレビ電話、 インターネットによるストリ一ミング等、 通信用途では符号 化データがバケツト化されており、 各バケツトのヘッダ情報に Iフレームの先頭 を含むか否かを示す情報が組込まれている楊合がある。 この時、 例えば図 7の表
1 ( 2 ) には、 指定時刻 t iとそれに対応するパケットの先頭までのバイト数 B i ( iは正の整数) が書かれている。
指定時刻が t 3の場合、デコーダは指定時刻 t 3のバケツトにアクセスした後、 バケツトが Iフレームの先頭を含むか否かをチェックしながら符号ィヒデータを読 み進み、 Iフレームを含んだパケットから復号 ·表示を開始する。 (それ以前のパ ケットは読み捨てる)
( b ) 前記の (a ) で、 パケットの先頭までのバイト数を明示せず、 パケット番 号のみを表 1 ( 2 ) に書いておくこともできる。 この場合、 一つの符号化データ 内のパケットの長さ (バイト数など) を固定とし、 符号化デ一夕のヘッダ情報に パケットの長さを書いておく。
デコーダにて、 パケット番号とパケットのバイト数から、 指定時刻のパケット の先頭までのバイト数を計算することによって、 指定時刻のデータにアクセスす ることが可能となる。 指定時刻のパケットにアクセスした後の動作は前記 ( a ) と同様である。
[その他の蓄積方法]
図 6では管理情報と符号化情報が結合されて蓄積されている状態を示している が、管理情報は符号化情報とは別ファイルとして分離して蓄積してもかまわない。 また、 指定時刻へのアクセスのための情報は、 前記図 7の表 1 ( 2 ) のような 管理情報中ではなく、 各タイルの符号ィ匕データのヘッダ情報に含まれていても良 い。 その場合、 図 7の表 1 ( 1 ) の 3列目 (タイル内での指定時刻へのアクセス を行うための情報へのポインタ) は必要が無くなる。
さらに、 管理情報、 各タイルの符号化データを全て別ファイルとしても良い。 この時、 例えば図 7の表 1 ( 1 ) の 2列目には先頭からのバイト数の代わりに、 各タイルの符号化データのファイル名が書かれる。 また、 各タイルへのアクセス はフアイル名を基に行われる。
図 8は第 1の実施の形態の送信装置を示す。 図 8の送信装置は、 符号化デ一夕 に含まれる管理情報を分離する管理情報分離部 (管理情報分離手段) 2 0と、 受 信装置 (C) などから表示位置 (指定位置) および表示サイズを入力し、 これに 対応するタイルを指定するタイル指定部 2 2と、 管理情報と表示位置およびサイ ズを基に管理情報を解析する解析部 2 4と、 解析結果を元に符号化データをラン ダムアクセスするランダムアクセス部 (検索手段) 2 6と、 ランダムアクセスさ れた符号化データの一部を送信する送信部 2 8とから構成される。
図 8に示す前記管理情報分離部 2 0は、 図 6のように蓄積されたデータから、 管理情報を分離する。
また、 図 8に示す前記タイル指定部 2 2は、 受信部から送られてきた表示位置 およびサイズ (パノラマ動画像の場合は、 さらに表示時刻) を入力し、 表示位置 に対応するタイルを求める。
図 9はパノラマ画像と表示位置の関係を説明する図である。 表示位置およびサ ィズはパノラマ画像中の座標 (a , b ) および水平 ·垂直サイズ (x, y) でそ れぞれ表される。 通常、 受信装置のディスプレイで表示できる画像サイズは固定 であるため、 サイズ(X , y) を固定とし、 受信装置(C) からは表示位置(a , b ) のみを送信装置 (B) に伝えるようにしても良い。 また、 受信部側 (受信装置 (C) 側) で表示位置を入力し易くするために、 パ ノラマ画像の縮小データを予め送信しておいても良い。 この場合は、 符号化装置 (A) にてパノラマ画像縮小部 (画像縮小手段) をさらに備え、 入力されたパノ ラマ画像を縮小し、 縮小されたパノラマ画像を符号化部 1 4にて符号化し、 図 6 のデータと共に蓄積しておく。 送信装置 (A) は蓄積された符号化データから、 縮小されたパノラマ画像の符号化データを取り出し受信装置 (C) に送信する。 受信装置 (C) ではこの符号化データを復号して、 縮小パノラマ画像を確認しつ つ、 所望の表示位置、 表示サイズを送信装置に伝えれば良い。 パノラマ画像が動 画の場合は、上記の縮小パノラマ画像も動画となっており、受信装置は表示位置、 表示サイズと共に、 表示時刻 tも指定する。 例えば、 受信装置で縮小パノラマ動 画像を再生し、 再生中に所望の表示領域を決定することで、 その時の再生時刻を 表示時刻 tとして指定する。
図 8のタイル指定部 2 2は、 表示位置およびサイズ (および表示時刻) に基づ いて表示位置に対応するタイルを求める。 表示位置 (a , b)、 サイズ (X , y ) を図 9のように選択した場合、指定されるタイルは夕イリレ番号 1および 2となる。 このようなタイルの指定は受信装置 (C) 側で行っても良い。 その場合は、 夕 ィル指定部 2 2は送信装置 (B) ではなく、 受信装置 (C) に備えられ、 表示位 置およびサイズの代わりに指定するタイルのタイル番号を受信装置から送信装置 に通知することとなる。
図 8の解析部 2 4は、 前記図 7の表 1のような管理情報のテーブルと指定され たタイルの情報 (および表示時刻) に従って、 左目用パノラマ画像、 右目用パノ ラマ画像の各々について、 指定されたタイルの符号化情報が、 蓄積された符号ィ匕 データの先頭から何バイト目に存在するかを解析する。
図 8のランダムアクセス部 2 6は、 上記解析結果に基づいて蓄積された符号化 データをランダムアクセスし、 指定されたタイルに対応する符号化データを取り 出す。 パノラマ動画像の場合は、 指定されたタイルの符号ィ匕データのうち、 表示 時刻の直前の Iフレーム以降の符号ィ匕デ一夕が取り出される。 [その他のアクセス 方法]に例示した方法でランダムアクセステーブルが作成されている場合は、表示 時刻からパケットを読み捨てていき、 Iフレームを含むバケツトが見つかった時 点以降の符号化データが取り出される。 あるいは、 表示時刻のフレームを必ず表 示したい場合は、 表示時刻から逆方向にパケットを読みながら、 Iフレームを含 むバケツトを探し、 Iフレームを含むバケツ卜が見つかった時点以降の符号化 データを取り出すようにしても良い。
図 8の送信部 (送信手段) 2 8は、 取り出された符号化デ一夕を受信装置に送 信する。 図 2 7は本実施の形態の受信装置の例を示す。 表示位置 ·サイズ決定部 4 0は、 パノラマ画像の一部を表示領域として決定し、 送信装置に通知する部分 である。 パノラマ動画像の場合は、 表示位置、 サイズの他に指定時刻も合わせて 通知する。 復号部 (復号手段) 3 0は送信された符号ィ匕データを復号する部分で ある。 一般に送信された符号化データは、 表示領域を含む 1以上のタイルに対応 しているため、 切り出し部 (切り出し手段) 3 2にて表示領域を切り出す処理が 必要となる。 切り出し部 3 2は、 表示位置 ·サイズ決定部 4 0で決定した情報に 基づき、 復号されたタイルの中から必要な表示領域を切り出して、 切り出された 画像を立体ディスプレイ等に出力し、 表示する。 パノラマ動画像の場合に、 指定 時刻の直前の Iフレーム以降の符号化データが送信されているときは、 切り出し 部 3 2は指定時刻のフレームが復号されるまで、 画像を出力しないようにするこ ともできる。 このような処理を行うため、送信装置からは、表 2 ( 1 ) に示す「直 前の Iフレームまでのバイト数」 が受信装置に通知されているものとする。 以上のようにして、 第 1の実施の形態によれば、 パノラマ画像のうち、 受信装 置で表示したい部分を空間的、 時間的に指定し、 蓄積された符号化データの一部 を取り出して送信することができるため、 容量の小さい伝送路においてもパノラ マ画像を容易に送信し、 表示することが可能となる。
[第 2の実施の形態] 前記第 1の実施の形態とは異なり、 他の実施の形態としての本発明の第 2の実 施の形態では、 送信装置 (B) は、 符号化装置 (A) で作成したパノラマ画像の 符号化データを全て受信装置 (C) に送信するようにしてもよい。 あるいは、 大 容量の記録媒体を用いて (介在させて) 前記符号化デ一夕を受信装置 (C) に渡 しても良い。 そして、 受信装置 (C) に全ての符号化データを蓄積する。
通常、 受信装置 (C) 側のディスプレイは解像度が低く、 蓄積したパノラマ画 像を全て表示できないため、 図 1 0のように、 受信装置 (C) に第 1の実施の形 態における送信装置と同様の管理情報分離部 2 0、 タイル指定部 2 2、 解析部 2 4、 ランダムアクセス部 2 6を設け、 さらに、 符号化デ一夕を復号する復号部 3 0を設け、 パノラマ画像の一部表示位置 ·サイズ、 表示時刻を指定して、 管理情 報の解析、 ランダムアクセス、 符号ィ匕デ一夕の一部の復号をし、 ディスプレイな ど表示部への表示を行う。
[第 3の実施の形態]
本発明の符号化装置におけるパノラマ画像入力部としては、 前記図 2 6に示し たような回転カメラの代わりに全方位カメラ (撮影手段) を使用できる。 以下、 これにより、 立体パノラマ動画像の撮影を容易にできるものを第 3の実施の形態 として説明する。 本実施形態では、 複数の全方位カメラを使用して立体パノラマ 画像を得るようにする。
2個の全方位カメラを使用した場合について図 1 1〜図 1 4に基き説明する。 2個の全方位カメラを使用し、 各カメラで左目用パノラマ画像、 右目用パノラ マ画像をそれぞれ得る場合、図 1 1に示すように、他の力メラが視野に干渉して、 立体視が可能な範囲は Aと Cの範囲になる。 一方、 範囲 Dと Bでは立体視ができ ない。
このようなパノラマ画像に必要な付加情報 (立体視用画像が何の種類の画像か らなるかを示す情報と各画像の方向を示す情報とを付加) としては、 カメラの夕 イブ (全方位カメラ 2個から成ることを示す) と、 全方位カメラ 1を左目用、 全 方位カメラ 2を右目用とした時の正面位置に対応する座標 (F(l, 2)と表す) と、 全方位カメラ 2を左目用、 全方位カメラ 1を右目用とした時の正面位置に対 応する座標 (F(2, 1)と表す) と、 A, B, C, Dの範囲を示す情報とがある。 ここで、 A, B, C, Dの範囲を示す情報は、 全方位カメラの特性、 カメラの夕 イブと F (1, 2)、 F (2, 1) などから導くことができるため付加情報として 必須ではないが、 導くための処理量を削減したり、 コンテンツに合わせて範囲を 可変にする等の理由から付加情報に含めて明示するようにしても良い。
図 12は、 全方位カメラ 1による画像と、 全方位カメラ 2による画像のデータ 例を示す。
範囲 Aと Cで、 右目用デ一夕と左目用デ一夕の関係が入れ替わる。 範囲 B、 D のデータは全て片目用 (平面表示用) のデータとなる。
図 13は、 図 12の画像をタイル分割した例を示す。
全方位カメラ 1の左目用画像はタイル LT0, LT1、 右目用画像はタイル R TO, RT1、 片目用画像はタイル MTO, MT1に分割される。 また、 全方位 カメラ 2も同様に左目用画像はタイル LT2, LT3、 右目用画像はタイル RT 2, RT3、 片目用画像はタイル MT 2, MT 3に分割される。
図 14は、 各タイルの符号化データを管理情報と共に蓄積する例を示す。 管理 情報には第 1の実施形態で説明したタイルアクセステ一ブル、 ランダムアクセス テーブルと共に、 前述した付加情報が含まれる。 付加情報のうち、 F (1, 2)、 F (2, 1) を図 13のようなパノラマ画像上の水平方向の画素位置 (一次元座 標) で表現する場合は、 F (1, 2) の画素位置は範囲 Aの中央 (タイル LT1 の左端の画素位置)、 F (2, 1) の画素位置は範囲 Cの中央(タイル RT 1の左 端の画素位置) となる。 このような表現では、 F (1, 2) の画素位置とパノラ マ画像の水平画素数から F (2, 1) を求めることが出来るため、 付加情報には F (1, 2) の情報のみを含めるようにすることもできる。
この例では、 全方位カメラ 1の符号化データは、 少なくとも全方位で平面表示 T JP2003/008301
できるように全てのタイルの符号化デ一夕を記録する。
また、 全方位カメラ 2の符号化データは、 立体視可能な領域についてのみ符号 化デ一夕を記録する。 すなわち、 MT 2, MT 3は符号化しない、 あるいは MT 2 , MT 3の符号ィヒデ一夕は記録しないようにする。
なお、 上記の例では片目用画像のタイル MT 2 , MT 3を落としていたが、 符 号化データのうちで片目用画像を利用する場合で、 他のカメラを写しこんでいな いタイルのデータを利用することもできる。 つまり、 全方位カメラ 1では、 範囲 Bのタイル MT 0を落とし、 範囲 Dのタイル MT 1を残し、 全方位カメラ 2では 範囲 Bのタイル MT 2を残し、 範囲 Dのタイル MT 3を落とす。
タイルへの分割方法、 符号化データの組み合わせ方法は上記の例に限るもので はない。 例えば、 一つのタイルが範囲 Aと範囲 Bの両方にまたがるように分割し てもかまわない。 また、 一部のタイルを落す例を述べたが、 全てのタイルを符号 化するようにしてもよい。
次に、 3個の全方位カメラを使用した場合について説明する。
図 1 5は、 全ての方位で立体視が可能なように 3個の全方位力メラを配置した 例を示す。
このようなパノラマ画像に必要な付加情報としては、 カメラのタイプ (全方位 カメラ 3個から成ることを示す) と、 全方位カメラ 1を左目用、 全方位カメラ 2 を右目用とした時の正面位置に対応する座標 (F ( 1 , 2 ) と表す) と、 全方位 カメラ 2を左目用、 全方位カメラ 3を右目用とした時の正面位置に対応する座檫 (F ( 2 , 3 ) ) と表す) と、 カメラ 3を左目用、 カメラ 1を右目用とした時の正 面位置に対応する座標 (F ( 3 , 1 ) と表す) と、 E, F , Gの範囲を示す情報 とがある。 ここで E, F , Gの情報は前述の A, B , C , Dと同様、 付加情報に 必須ではないが、 処理量削減等のために付加情報に含めて明示するようにしても よい。
図 1 6は、 全方位カメラ 1, 2, 3による画像の例を示す。 1
範囲 E, F , Gで、 右目用データと左目用データの関係および使用するカメラ の組み合わせが異なる。
図 1 7は、 図 1 6の画像をタイル分割した例を示す。
また、図 1 8は、各タイルの符号化データを管理情報と共に蓄積する例を示す。 管理情報には第 1の実施形態で説明したタイルアクセステーブル、 ランダムァク セステ一ブルと共に、 前述した付加情報が含まれる。 付加情報のうち、 F ( 1, 2 )、 F ( 2 , 3 )、 F ( 3 , 1 ) を図 1 7のようなパノラマ画像上の水平方向の 画素位置 (一次元座標) で表現する場合は、 全方位カメラを 2個用いた場合と同 様に、 F ( 1 , 2 ) のみを付加情報に含めるようにすることもできる。
なお、 図 1 8の例ではタイル MT 2〜MT 5の符号ィ匕を行わず、 これらに対応 する符号化デ一夕は記録しない。
このように第 3の実施の形態においては、 全方位カメラを複数用いることで立 体パノラマ動画像の撮影を容易に行うことが可能となり、 また、 タイルの一部を 符号化しないことで蓄積または伝送される符号化データ量を削減することが可能 となる。
[第 4の実施の形態]
第 1の実施の形態で説明した送信装置では、 一般に表示位置 ·サイズに対応し たタイルが複数あるため、 伝送データに無駄が発生する。 本発明の第 4の実施の 形態では図 1 9の送信装置のように、 復号部 3 0で復号したデ一夕を切り出し部 3 2で表示位置 ·サイズの部分を切り出して合成部 (合成手段) 3 4で合成画像 を作成する。 そして、 再符号化部 (再符号化手段) 3 6で合成画像を再符号化し て送信部 2 8により送信する。 このように必要な部分の復号画像を切り出し合成 し再符号化して送信し、 データ量を最少にする。
合成画像には、 例えば、 図 2 0に示すように左目用と右目用の切り出し画像を 左右くっ付けた状態の 1フレームの合成画像にすることができる。
また、 図 2 1に示すように、 全体画像が確認できるように縮小したパノラマ画 像も、 切り出した左右の画像の上側に付けるなどした 1フレームの合成画像とす ることができる。
また、 図 2 2に示すように、 縮小パノラマ画像を左右の切り出し画像の先頭に 付けるようにした合成画像にしても良い。
さらに、 図 2 3に示すように、 左右の切り出し画像と縮小パノラマ画像の 3つ の画像を合成したとき、 一般には余りの領域が生じる。 余りの部分についてはパ デイングによってデ一夕 (ダミーデータ) を埋め、 全体として矩形の画像を作成 する。
いずれの場合にも、 合成した画像を受信装置で分離するための情報を符号化 データのヘッダ部分などに付加することとなる。あるいは、このような情報はへッ ダ部分ではなく管理情報に含めるようにしても良い。
前記図 1 9などに説明したように、 合成画像を再符号ィ匕 ·送信するのは受信装 置側で 1つの符号化データを扱えばすむというメリットがある。 しかし、 合成の 処理を省略したい場合は受信装置側で複数符号化データを扱えるようにしても良 い。 その場合、 送信装置では縮小画像や切り出した左右の画像を独立に符号 し て送信する。
前記図 9の説明では、 表示位置(a , b)と表示サイズ(x , y)を受信装置から送 信装置に通知する方法を述べたが、 パノラマ画像の表示領域を指定する方法はこ れに限るものではない。 前記図 1 9などによる本発明の実施の形態では、 切り取 り位置(A,B)、切り取りサイズ(X, Y)および表示サイズ(X , y )を指定する方法 を用いても良い。 ここで、 送信装置がパノラマ画像から切り取る領域は、 切り取 り位置 (A,B)、 切り取りサイズ (Χ, Υ)で表され、 受信装置にて実際に表示され るサイズは (X, y)で表すものとする。 例えば、 (X, Y)が(X , y)より大きい場合 は切り取られた領域が( X, y )のサイズに縮小され符号化されて受信装置に送ら れる。逆に、 (X, Y)が(x, y)より小さい場合は切り取られた領域が(X , y)のサ ィズに拡大され符号化されて受信装置に送られる。 このようにすることで、 パノ ラマ画像の表示画像がズームインしたりズームァゥトするような効果を得ること が可能となる。
以上説明したとおり本発明によれば、 効率良くパノラマ画像を蓄積あるいは伝 送する動画像符号化 ·復号装置、 および簡単に動画のパノラマ立体画像を得る撮 影装置を構成できる。 産業上の利用可能性
本発明に係る画像符号化装置、 画像送信装置および画像撮影装置は、 立体画像特に画素数が多く (解像度の高い) 膨大なデータ量のパノラマ静止画像 もしくはパノラマ立体動画像を効率良く符号化して蓄積し、 ネットワークの経由 により伝送し復号することにより、 そのパノラマ立体画像を表示装置の画面に表 示させることを可能にするもので、 容量の小さな伝送路においてパノラマ画像を 容易に送信し表示させることに適している。また、本発明に係る画像撮影装置は、 複数の全方位力メラでパノラマ画像を得ることに適している。

Claims

請 求 の 範 囲
1 . 画像を入力する画像入力手段と、
入力された画像を小画面に分割する分割手段と、
各小画面画像を符号ィヒする符号化手段と、
符号化情報に小画面画像の符号ィヒデ一夕の全符号化データ内での位置を示す情 報を付加する管理情報付加手段とを有することを特徴とする画像符号ィヒ装置。
2 . 画像の縮小処理をする画像縮小手段と、 縮小画像を符号化する縮小画像符 号化手段とを有することを特徴とする請求の範囲第 1項記載の画像符号化装置。
3 . 画像情報が動画像情報であり、 符号化情報への付加情報には、 小画面画像 の指定時刻の位置を示す情報を含むことを特徴とする請求の範囲第 1項または第 2項に記載の画像符号化装置。
4. 画像が分割された小画面画像の符号化データの全符号化データ内での位置 を含む管理情報が付加された符号化情報から管理情報を分離する管理情報分離手 段と、 分離した管理情報に基き全符号化デ一夕から指定位置に基づく小画面画像 の符号化データを検索する検索手段と、 検索された指定位置に基づく小画面画像 の符号化データを送信する送信手段とを有することを特徴とする画像送信装置。
5 . 画像が分割された小画面画像の符号ィヒデ一夕の全符号化データ内での位置 を含む管理情報が付加された符号化情報から管理情報を分離する管理情報分離手 段と、 分離した管理情報に基き全符号化データから指定位置に基づく小画面画像 の符号化データを検索する検索手段と、 検索された指定位置に基づく小画面画像 の符号化データを復号する復号手段と、 復号された小画面画像データのうちの所 定領域を切り出す切り出し手段と、 切り出された所定領域の画像デ一夕を再符号 化する再符号化手段と、 再符号化された所定領域の画像データを送信する送信手 段とを有することを特徴とする画像送信装置。
6 . 切り出された所定領域の画像データを合成する合成手段を有し、 合成デー 夕を再符号化手段で再符号化 uして、 送信手段から送信することを特徴とする請求 の範囲第 5項に記載の画像送信装置。
7 . 送信手段は、 小画面画像に分割する前の画像の所定の縮小画像を送信する ことを特徴とする請求項範囲第 5項または第 6項に記載の画像送信装置。
8 . 2以上の撮影手段を有し、 2つの撮影手段をペアにして立体視用の画像を 撮影し、 ペアの撮影手段の撮影画像で立体画像の画像データを作成することを特 徴とする画像撮影装置。 "
9 . 3以上の撮影手段を有し、 2つの撮影手段をペアにして立体視用の画像を 撮影し、 各ペアで互いに異なる方向の立体画像を撮影し、 各ペアの撮影手段の撮 影画像で立体画像の画像デ一夕を作成するものであり、 1つの撮影手段は他の撮 影手段と複数のペアを構成することを特徴とする画像撮影装置。
1 0 . 画像入力手段に、 左目用画像、 右目用画像からなる立体視用の画像デー タを入力することを特徴とする請求の範囲第 1項から第 3項のうちのいずれか 1 項に記載の画像符号ィヒ装置。
1 1 . 画像入力手段に、 請求の範囲第 8項または第 9項の作成立体画像を入力 することを特徵とする請求の範囲第 1項から第 3項のうちのいずれか 1項に記載 の画像符号化装置。
1 2 . 入力する立体視用画像データには、 立体視用の画像が何の種類の画像か らなるかを示す情報と、 各画像の方向を示す情報とが付加情報として付加されて いることを特徴とする請求の範囲第 1 1項に記載の画像符号化装置。
PCT/JP2003/008301 2002-06-28 2003-06-30 画像符号化装置、画像送信装置および画像撮影装置 WO2004004363A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
AU2003244155A AU2003244155A1 (en) 2002-06-28 2003-06-30 Image encoding device, image transmission device, and image pickup device
JP2004517331A JPWO2004004363A1 (ja) 2002-06-28 2003-06-30 画像符号化装置、画像送信装置および画像撮影装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-189469 2002-06-28
JP2002189469 2002-06-28

Publications (1)

Publication Number Publication Date
WO2004004363A1 true WO2004004363A1 (ja) 2004-01-08

Family

ID=29996847

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/008301 WO2004004363A1 (ja) 2002-06-28 2003-06-30 画像符号化装置、画像送信装置および画像撮影装置

Country Status (3)

Country Link
JP (2) JPWO2004004363A1 (ja)
AU (1) AU2003244155A1 (ja)
WO (1) WO2004004363A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005055607A1 (en) * 2003-12-08 2005-06-16 Electronics And Telecommunications Research Institute System and method for encoding and decoding an image using bitstream map and recording medium thereof
WO2007001055A1 (ja) * 2005-06-29 2007-01-04 Sony Corporation ステレオ画像再生装置及び再生方法、並びにステレオ画像再生用プログラム及びプログラムを記録した記録媒体
WO2007001056A1 (ja) * 2005-06-29 2007-01-04 Sony Corporation ステレオ画像処理装置及び処理方法、並びにステレオ画像処理用プログラム及びプログラムを記録した記録媒体
JP2012068380A (ja) * 2010-09-22 2012-04-05 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2014095808A (ja) * 2012-11-09 2014-05-22 Nintendo Co Ltd 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
GB2509956A (en) * 2013-01-18 2014-07-23 Canon Kk Encapsulating tiled timed media data, applicable to scalable coding
GB2512880A (en) * 2013-04-09 2014-10-15 Canon Kk Method, device, and computer program for encapsulating partitioned timed media data
JP2016105593A (ja) * 2014-11-26 2016-06-09 ソニー株式会社 ライブ選択的適応帯域幅
CN106550239A (zh) * 2015-09-22 2017-03-29 北京同步科技有限公司 360度全景视频直播系统及其实现方法
WO2017204185A1 (ja) * 2016-05-27 2017-11-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
CN107637082A (zh) * 2015-06-12 2018-01-26 索尼公司 信息处理装置以及信息处理方法
JP6322740B1 (ja) * 2017-03-07 2018-05-09 株式会社ドワンゴ 画像送信装置及び画像送信方法、並びに、画像受信装置及び画像受信方法
JP2019527495A (ja) * 2016-07-01 2019-09-26 フェイスブック,インク. 立体画像キャプチャ

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5418127B2 (ja) * 2009-10-09 2014-02-19 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8907968B2 (en) * 2011-03-31 2014-12-09 Panasonic Corporation Image rendering device, image rendering method, and image rendering program for rendering stereoscopic panoramic images
JP2014131154A (ja) * 2012-12-28 2014-07-10 Pioneer Electronic Corp 映像処理装置、映像受信装置、映像送信装置及び映像処理方法
EP2951642B1 (en) * 2013-02-04 2019-12-18 Valorisation-Recherche, Limited Partnership Omnistereo imaging
KR101844032B1 (ko) * 2014-12-26 2018-05-14 주식회사 케이티 파노라믹 비디오 영상의 관심 영역의 영상 전송 방법, 장치 및 디바이스
JP2016126209A (ja) * 2015-01-06 2016-07-11 大日本印刷株式会社 画像表示装置、画像表示方法、およびプログラム
CN106101847A (zh) 2016-07-12 2016-11-09 三星电子(中国)研发中心 全景视频交互传输的方法和系统
JP6669617B2 (ja) 2016-09-12 2020-03-18 ルネサスエレクトロニクス株式会社 動画像処理システム
WO2018123608A1 (ja) * 2016-12-27 2018-07-05 ソニー株式会社 画像処理装置および方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241593A (ja) * 1991-01-14 1992-08-28 A T R Shichiyoukaku Kiko Kenkyusho:Kk 立体テレビジョンシステム
JPH0923404A (ja) * 1995-07-06 1997-01-21 Pioneer Electron Corp 媒体記録方法、装置及び媒体再生装置
JPH11191895A (ja) * 1996-12-04 1999-07-13 Matsushita Electric Ind Co Ltd 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置
JP2001008232A (ja) * 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3357468B2 (ja) * 1994-07-20 2002-12-16 富士写真フイルム株式会社 画像圧縮システムおよび画像再生システム
JPH10215366A (ja) * 1997-01-30 1998-08-11 Dainippon Screen Mfg Co Ltd 圧縮画像データの抽出方法およびその装置
EP1297634A1 (en) * 2000-06-09 2003-04-02 iMove Inc. Streaming panoramic video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04241593A (ja) * 1991-01-14 1992-08-28 A T R Shichiyoukaku Kiko Kenkyusho:Kk 立体テレビジョンシステム
JPH0923404A (ja) * 1995-07-06 1997-01-21 Pioneer Electron Corp 媒体記録方法、装置及び媒体再生装置
JPH11191895A (ja) * 1996-12-04 1999-07-13 Matsushita Electric Ind Co Ltd 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置
JP2001008232A (ja) * 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005055607A1 (en) * 2003-12-08 2005-06-16 Electronics And Telecommunications Research Institute System and method for encoding and decoding an image using bitstream map and recording medium thereof
US7613344B2 (en) 2003-12-08 2009-11-03 Electronics And Telecommunications Research Institute System and method for encoding and decoding an image using bitstream map and recording medium thereof
WO2007001055A1 (ja) * 2005-06-29 2007-01-04 Sony Corporation ステレオ画像再生装置及び再生方法、並びにステレオ画像再生用プログラム及びプログラムを記録した記録媒体
WO2007001056A1 (ja) * 2005-06-29 2007-01-04 Sony Corporation ステレオ画像処理装置及び処理方法、並びにステレオ画像処理用プログラム及びプログラムを記録した記録媒体
US8358329B2 (en) 2005-06-29 2013-01-22 Sony Corporation Stereo image reproducing apparatus, stereo image reproduction method, stereo image reproduction program, and recording medium having such program recorded therein
JP2012068380A (ja) * 2010-09-22 2012-04-05 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
CN103109537A (zh) * 2010-09-22 2013-05-15 索尼公司 图像处理设备、成像设备、图像处理方法和程序
JP2014095808A (ja) * 2012-11-09 2014-05-22 Nintendo Co Ltd 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
GB2509956A (en) * 2013-01-18 2014-07-23 Canon Kk Encapsulating tiled timed media data, applicable to scalable coding
GB2509956B (en) * 2013-01-18 2016-05-04 Canon Kk Method, device and computer program for efficient encapsulation of timed tiled media data
GB2512880A (en) * 2013-04-09 2014-10-15 Canon Kk Method, device, and computer program for encapsulating partitioned timed media data
GB2512880B (en) * 2013-04-09 2017-12-20 Canon Kk Method, device, and computer program for encapsulating partitioned timed media data
JP2016105593A (ja) * 2014-11-26 2016-06-09 ソニー株式会社 ライブ選択的適応帯域幅
CN107637082B (zh) * 2015-06-12 2021-03-12 索尼公司 信息处理装置以及信息处理方法
CN107637082A (zh) * 2015-06-12 2018-01-26 索尼公司 信息处理装置以及信息处理方法
JPWO2016199607A1 (ja) * 2015-06-12 2018-03-29 ソニー株式会社 情報処理装置および情報処理方法
CN106550239A (zh) * 2015-09-22 2017-03-29 北京同步科技有限公司 360度全景视频直播系统及其实现方法
JPWO2017204185A1 (ja) * 2016-05-27 2019-03-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置、復号装置、符号化方法、および復号方法
CN115150619A (zh) * 2016-05-27 2022-10-04 松下电器(美国)知识产权公司 编码装置及解码装置
CN109155854A (zh) * 2016-05-27 2019-01-04 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法及解码方法
US11985350B2 (en) 2016-05-27 2024-05-14 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
US11985349B2 (en) 2016-05-27 2024-05-14 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
WO2017204185A1 (ja) * 2016-05-27 2017-11-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
JP2021145378A (ja) * 2016-05-27 2021-09-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置
US11134270B2 (en) 2016-05-27 2021-09-28 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
CN114979647A (zh) * 2016-05-27 2022-08-30 松下电器(美国)知识产权公司 编码装置及解码装置
CN114979648A (zh) * 2016-05-27 2022-08-30 松下电器(美国)知识产权公司 编码方法、解码方法、及编码和解码方法
CN114979650A (zh) * 2016-05-27 2022-08-30 松下电器(美国)知识产权公司 编码装置及解码装置
US11962804B2 (en) 2016-05-27 2024-04-16 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
CN115037939A (zh) * 2016-05-27 2022-09-09 松下电器(美国)知识产权公司 编码装置及解码装置
CN115150630B (zh) * 2016-05-27 2024-02-20 松下电器(美国)知识产权公司 编码装置及解码装置
CN115150630A (zh) * 2016-05-27 2022-10-04 松下电器(美国)知识产权公司 编码装置及解码装置
JP7340563B2 (ja) 2016-05-27 2023-09-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置
CN115150619B (zh) * 2016-05-27 2024-02-13 松下电器(美国)知识产权公司 编码装置及解码装置
CN115037939B (zh) * 2016-05-27 2024-02-13 松下电器(美国)知识产权公司 编码装置及解码装置
CN114979650B (zh) * 2016-05-27 2024-02-13 松下电器(美国)知识产权公司 编码装置及解码装置
CN114979647B (zh) * 2016-05-27 2024-02-13 松下电器(美国)知识产权公司 编码装置及解码装置
CN114979648B (zh) * 2016-05-27 2024-02-13 松下电器(美国)知识产权公司 编码方法、解码方法、及编码和解码方法
JP7133478B2 (ja) 2016-07-01 2022-09-08 メタ プラットフォームズ, インク. 立体画像キャプチャ
JP2019527495A (ja) * 2016-07-01 2019-09-26 フェイスブック,インク. 立体画像キャプチャ
JP2018148443A (ja) * 2017-03-07 2018-09-20 株式会社ドワンゴ 画像送信装置及び画像送信方法、並びに、画像受信装置及び画像受信方法
JP6322740B1 (ja) * 2017-03-07 2018-05-09 株式会社ドワンゴ 画像送信装置及び画像送信方法、並びに、画像受信装置及び画像受信方法

Also Published As

Publication number Publication date
JP2009194920A (ja) 2009-08-27
JP4877852B2 (ja) 2012-02-15
JPWO2004004363A1 (ja) 2005-11-04
AU2003244155A1 (en) 2004-01-19

Similar Documents

Publication Publication Date Title
JP4877852B2 (ja) 画像符号化装置、および画像送信装置
KR100742674B1 (ko) 화상데이터 전송시스템, 그의 화상데이터 송신장치, 및그의 화상데이터 수신장치
US7136415B2 (en) Method and apparatus for multiplexing multi-view three-dimensional moving picture
US8228981B2 (en) Encoding and decoding multi-view video while accommodating absent or unreliable camera parameters
US8218855B2 (en) Method and apparatus for receiving multiview camera parameters for stereoscopic image, and method and apparatus for transmitting multiview camera parameters for stereoscopic image
JP4252105B2 (ja) 画像データ作成装置及び画像データ再生装置
JP4181446B2 (ja) 立体画像表示装置
JP5259519B2 (ja) デジタル放送受信機、送信機及び端末装置
JP5700703B2 (ja) 映像復号装置、映像送受信システム、映像復号方法及び映像送受信方法
JP2004048293A (ja) 立体画像圧縮または伸長装置
JP2004240469A (ja) 画像データ作成装置およびそのデータを再生する画像データ再生装置
WO2004093467A1 (ja) 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2004264882A (ja) 画像データ作成装置およびそのデータを再生する画像データ再生装置
KR100810539B1 (ko) 다중 카메라 시스템에서 자유로운 기본설정 뷰의부호화/복호화 방법 및 그 장치
JP2012100211A (ja) 立体画像データ作成装置、立体画像データ再生装置、及びファイル管理方法
JP2019514313A (ja) レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム
US20110193937A1 (en) Image processing apparatus and method, and image producing apparatus, method and program
WO2013146636A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム
CN107707830B (zh) 基于单向通信的全景视频播放拍照系统
WO2007029686A1 (ja) 立体画像記録再生システム
JP5449241B2 (ja) 映像復号装置、映像送受信装置、映像復号方法、及び映像送受信方法
WO2019181493A1 (ja) 受信装置、受信方法、送信装置および送信方法
JP2020170998A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2004254051A (ja) 画像送信方法と装置、画像記録方法と装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004517331

Country of ref document: JP

122 Ep: pct application non-entry in european phase