WO2004081783A1 - ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法 - Google Patents

ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法 Download PDF

Info

Publication number
WO2004081783A1
WO2004081783A1 PCT/JP2003/003069 JP0303069W WO2004081783A1 WO 2004081783 A1 WO2004081783 A1 WO 2004081783A1 JP 0303069 W JP0303069 W JP 0303069W WO 2004081783 A1 WO2004081783 A1 WO 2004081783A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
image
pointer
ohp
candidate
Prior art date
Application number
PCT/JP2003/003069
Other languages
English (en)
French (fr)
Inventor
Yutaka Katsuyama
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to PCT/JP2003/003069 priority Critical patent/WO2004081783A1/ja
Priority to JP2004569359A priority patent/JP4040046B2/ja
Publication of WO2004081783A1 publication Critical patent/WO2004081783A1/ja
Priority to US11/045,112 priority patent/US7341352B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Definitions

  • the present invention relates to a pointer area detecting device, a method and a program, an image associating device, a method and a program, a content distribution server, and a content distribution method.
  • the present invention relates to a pointer position detecting device, a pointer position detecting method, and a pointer position detecting program for detecting a pointer position on a HP in a video frame image of a lecture using an OHP (Overhead Projector).
  • OHP Overhead Projector
  • the present invention can associate, for example, a ⁇ HP file used in a lecture or the like with a moving image obtained by photographing the lecture or the like, and can clearly display the ⁇ HP part specified in the lecture on an OHP file.
  • the present invention relates to an image associating apparatus, an image associating method, an image associating program, and a content distribution server capable of distributing the content created as described above. Background art
  • E_learning is being introduced in in-house education and general education.
  • E-learning is remote education using the Internet, and is often performed using the web screen.
  • the instructor's explanation can be displayed on the OHP displayed in synchronization with the video, the student can easily pay attention to the instructor's explanation in ⁇ HP.
  • the instructor When creating the above content, the instructor must detect the pointer position indicated on the OHP from the moving image (video frame image).
  • the following devices have been known as such a pointer position detecting device.
  • Patent Document 3 Patent Document 3
  • Patent Document 4 Patent Document 4
  • Patent Document 5 (Patent Document 5)
  • Patent Document 6 (Patent Document 6)
  • the lecturer who uses the pointer of (1) has difficulty giving lectures.
  • the content there is a need to take a close-up of the instructor's face, and it is not preferable that the face be moved by using the pointer.
  • the method (2) using a laser pointer has a problem in that it is costly for the following reasons.
  • a device in which the projected image and the captured image have exactly the same size is required.
  • a reference marker illuminated with infrared light on the screen and the power of the marker are required.
  • a special laser pointer and projection device are required.
  • 1) a special device and environment are required to detect the position of the laser pointer from the video of the laser pointer.
  • a special device is required to detect the position of the pointer from the video shot from the video projected by the projector and convert or associate it with the coordinates in the original content.
  • the projector projected image can be zoomed, or the camera can be moved up, down, left, right, or —You can't shoot just a part.
  • the present invention has been made in order to solve the above-described problems, and does not require a special device, and a video image taken only by a general device such as a personal computer, a projector projection device, a laser pointer, and a video camera. It is therefore an object of the present invention to provide a pointer area detecting device, a pointer area detecting method, and a pointer area detecting program which can detect a laser pointer position from a pointer and can be realized at low cost.
  • the present invention relates, for example, an OHP file (original document) used in a lecture or the like to a moving image obtained by photographing the lecture or the like, and a part of the OHP image specified in the lecture to an OHP file.
  • the present invention provides a pointer area detecting device that detects an area of an optical pointer indicating a predetermined position of an OHP image in an image of a video frame in which the OHP image is captured.
  • An RGB value acquiring unit for acquiring an RGB value in each pixel region of the image of the video frame, and an RGB value acquiring unit acquiring the RGB value.
  • a pointer region candidate extracting unit that extracts a pixel region that satisfies a predetermined expression using each of the obtained RGB values as a variable, and a predetermined evaluation value among the pointer region candidates extracted by the pointer region extracting unit.
  • a pointer area determining unit that determines a pixel area having the highest value as a pointer area.
  • the predetermined formula is R ⁇ 230 and 3R-2G-B ⁇ 155, and the evaluation value is given by 3R-2GB. .
  • the present invention is a pointer area detection device for detecting an area of an optical pointer pointing to a predetermined portion of an OHP image in an OHP image captured in an image of a video frame,
  • An RGB value acquisition unit that acquires an RGB value in each pixel area of the pixel data, and a binary image creation that creates a binary image based on whether the RGB value acquired by the RGB acquisition unit and hue satisfy a predetermined expression.
  • a region candidate extracting unit for extracting a plurality of region candidates using labeling in the binary image, and the region candidate in each region including each of the plurality of region candidates in a video frame image.
  • a background color calculation unit that obtains a background color by using a part other than the area; and a region in the video frame image that includes each of the plurality of region candidates.
  • a pointer area candidate average color calculation unit for obtaining an average color of the pointer area candidate by using a captured portion; and the pointer area candidate is a pointer area based on a color distribution of the average color of the pointer area candidate with respect to the background color. It is provided with a pointer area judging unit using color information for judging whether or not there is color.
  • the area candidate extraction unit obtains an outer shape rectangle based on the pattern obtained by the labeling, and further obtains an outer shape rectangle around the outer shape rectangle and within a predetermined distance from the outer shape rectangle.
  • the area candidate extracting unit further sets, as the area candidate, an area obtained by enlarging each of the groups by a predetermined number of pixels.
  • the background color calculation unit performs color labeling of the video image in the region extracted by the region candidate extraction unit, and calculates a maximum area in a portion excluding the pattern region.
  • the present invention is characterized in that an average color is obtained for the background region using the label region having the background region as a background region.
  • the pointer region candidate average color calculation unit calculates an average color in each region including each of the plurality of region candidates in a video frame image, and Pixels within a certain threshold value from the average color are extracted as a candidate for the pointer area, and the average color in the pointer area candidate is determined to be the average color of the pointer area candidate.
  • the pointer region determination unit includes a color distribution of an average color obtained by the Vointer region average color calculation unit with respect to a background color obtained by the background color calculation unit; It is characterized in that it is determined whether or not the candidate for the pointer area is the pointer area based on whether or not the color distribution of the laser pointer relative to the background color thus determined matches.
  • a color distribution table of a laser pointer is provided for each background color.
  • the present invention is a Vointer area detection device for detecting an optical pointer area indicating a predetermined portion of an OHP image in an image of a video frame in which the OHP image is captured,
  • An RGB value acquisition unit that acquires an RGB value in a pixel area;
  • a binary image creation unit that creates a binary image based on whether or not a predetermined expression for an RGB value and a hue acquired by the RGB acquisition unit is satisfied.
  • An area candidate extraction unit that extracts a plurality of area candidates using labeling in the binary image; and an average color calculation unit that calculates an average color in each area including each of the plurality of area candidates in a video frame image.
  • a pointer pattern candidate extraction unit for extracting a pointer pattern candidate in each of the area candidate areas using the average color; and the pointer pattern
  • An elliptical shape calculation unit for obtaining an elliptical shape by using the envelope of the above, and the pointer pattern i is a laser pointer region based on a ratio of an area of the elliptical shape to an area occupied by a pixel forming the pointer pattern. It is provided with a pointer area determination unit using a shape for determining whether or not force is applied.
  • the pointer pattern candidate extraction unit sets the pointer pattern to include the pixel having a color within a certain threshold value with the average color as the pointer pattern.
  • the pointer area determination unit includes: In the elliptical shape, the odd raster and the even raster are separately examined, and the ratio of the pixels forming the pointer pattern obtained by one of the rasters is compared with the total number of pixels on the raster. For example, it is specially determined to be a laser pointer.
  • the present invention also provides a pointer area detection method for detecting an area of an optical pointer indicating a predetermined portion of an image based on an image of a video frame in which the image is captured,
  • An RGB value obtaining step of obtaining an RGB value in each pixel area of the image of the video frame; and a pixel area candidate that satisfies a predetermined expression using each of the RGB values obtained by the RGB obtaining unit as a variable.
  • a pointer area extraction step of extracting a pixel area having the highest predetermined evaluation value among the pointer areas extracted by the pointer area extraction unit as a pointer area. It becomes.
  • the present invention is a Vointer area detecting method for detecting an area of an optical pointer indicating a predetermined portion of an OHP image in an image of a video frame in which the OHP image has been captured, wherein each pixel of the image of the video frame is An RGB value acquiring step of acquiring an RGB value in a region; a binary image creating step of creating a binary image based on whether or not a predetermined expression for an RGB value and a hue acquired by the RGB acquiring unit is satisfied; A region candidate extracting step of extracting a plurality of region candidates using labeling in the binary image; and a portion excluding the region candidate in each region including each of the plurality of region candidates in a video frame image.
  • the present invention is a method for detecting a pointer region in which a region of an optical pointer indicating a predetermined portion of an OHP image is detected in an image of a video frame in which the HP image is captured, wherein Get RGB value in pixel area A binary image creating step of creating a binary image based on whether or not a predetermined expression for an RGB value and a hue acquired by the RGB acquiring unit is satisfied; and An area candidate extraction step of extracting a plurality of area candidates using labeling; an average color calculation step of obtaining an average color in each area including each of the plurality of area candidates in a video frame image; A pointer pattern candidate extracting step of extracting a pointer pattern candidate in each of the area candidate areas; and using the pointer pattern envelope!
  • the present effort is directed to a pointer area detection that causes a computer to execute a process of detecting an area of an optical pointer indicating a predetermined portion of an OHP image by detecting the area of the video frame in which the OHP image is captured.
  • An RGB value acquiring step of acquiring an RGB value in each pixel area of an image of a video frame; and a pixel area satisfying a predetermined expression in which each of the RGB values acquired by the RGB acquiring unit is a variable.
  • Region extraction step of extracting the pixel region having the highest predetermined evaluation value among the candidate pointer regions extracted by the pointer region extraction unit as a pointer region. And let the computer execute
  • the present invention provides a pointer area detection program for causing a computer to execute a process of detecting an area of an optical pointer indicating a predetermined portion of an OHP image by referring to an image of a video frame in which the OHP image is captured.
  • An RGB value obtaining step of obtaining an RGB value in each pixel region of the image of the video frame; and a binary value based on whether or not a predetermined expression of the RGB value and the hue obtained by the RGB obtaining unit is satisfied.
  • a background color calculation step for obtaining a background color using a portion excluding the region candidate in each region; In a region including each of the plurality of region candidates in the image of the program, a candidate region color average calculating step of calculating an average color of the region candidate using the region candidate portion; And a pointer area determination step using color information for determining whether or not the candidate for the pointer area is a pointer area based on the color distribution of the average color.
  • the present invention provides a pointer area detection program for causing a computer to execute a process of detecting an area of an optical pointer indicating a predetermined portion of an HP image in an image of a video frame in which the HP image is captured.
  • Extracting a pointer pattern candidate to be extracted comprising: calculating an elliptical shape using the envelope of the pointer pattern; calculating an elliptical shape based on a ratio of an area of the elliptical shape to an area occupied by pixels forming the pointer pattern.
  • the computer executes a pointer area determination step using shape information for determining whether or not the pointer pattern candidate is a laser pointer area.
  • the image association apparatus according to the present invention, a Vointer area detection unit that detects the area of the optical pointer pointing to a predetermined location of the OHP image, based on the image of the video frame in which the OHP image is captured, An image association unit that associates the OHP image captured in the video frame image with the OHP file that is the original document of the OHP image, and the image of the optical pointer area detected by the pointer area detection unit.
  • a pointer area associating section for associating the area of the OHP file associated by the associating section.
  • the pointer area associating unit may be a character in an OHP image in an area related to the area detected by the pointer area detecting unit. Based on the information and the character information of the OHP file! The optical pointer area detected by the pointer area detecting section is associated with an OHP file area which is an original document of the 0 HP image captured in the video frame image. '
  • the image associating unit associates the video frame number with the page number of the HP file, and the pointer area associating unit detects the pointer by the pointer area detecting unit.
  • the obtained area of the optical pointer is associated as coordinates in the HP file.
  • the pointer area associating unit associates the area so as to highlight the area related to the pointer area in the OHP file.
  • the image association method further comprises a Vointer area detecting step of detecting an area of the optical pointer pointing to a predetermined portion of the OHP image based on an image of a video frame in which the OHP image is captured.
  • the present invention is an image association program for causing a computer to execute a process of associating a video frame with an OHP file corresponding to an OHP image captured in the image of the video frame.
  • a pointer area detection step for detecting an area of an optical pointer pointing to a predetermined portion of the OHP image in the captured OHP image; an OHP image captured in the video frame image;
  • causing the computer to execute the associating pointer area associating step.
  • the content distribution server includes a video image storing video image.
  • An image storage unit an OHP file storage unit storing an OHP file which is an original document of the OHP image captured in the video image, a frame number of the video image, and an OHP image captured in the video image
  • the association information storing the association information that associates the area of the optical pointer indicated in the OHP image captured in the video image with the area of the OHP file, while correlating the page number of the OHP file corresponding to An information storage unit, and a transmission unit for transmitting an OHP file image associated with the image of the video frame and information of an optical pointer area in the OHP file.
  • the present invention also provides a content distribution method for performing content distribution between a content distribution server of the present invention and a client connected to the server, wherein the client requests the content distribution server to distribute the designated content.
  • the content distribution server retrieves the content related to the request from each storage unit, responds to the request, and finds the corresponding video image, an OHP file associated with the video image, and a pointer in the OHP file.
  • Content transmission step for transmitting position information, and display on the client that plays video data from the distributed contents and displays the pointing position information in the OHP file image and OHP file image synchronized with the video frame With stepsBRIEF DESCRIPTION OF THE FIGURES
  • FIG. 1 is a conceptual diagram of an embodiment of the present invention.
  • FIG. 2 is a functional configuration diagram of an image association / content creation device.
  • FIG. 3 is a hardware configuration diagram of the image association / content creation device.
  • FIG. 4 is a flowchart showing a flow of an associating process of the image associating device.
  • FIG. 5 is a flowchart showing the flow of the OHP area image extraction processing.
  • FIG. 6 is a functional configuration diagram of a similarity calculating unit that calculates similarity based on character information.
  • FIG. 7 shows a flow of a similarity calculating process performed by the similarity calculating unit of FIG. It is a flow chart that did.
  • FIG. 8 is a flowchart showing details of the character recognition processing.
  • FIG. 9 is a flowchart showing the processing of the pointer area detection unit.
  • FIG. 10 is a flowchart showing a pointer area verification process using color information.
  • FIG. 11 is a diagram showing the color (RGB) distribution of the laser pointer for each background color (RGB).
  • FIG. 12 is a flowchart showing a verification process of a pointer area using a shape.
  • FIG. 13 is a diagram showing an example of an image pattern of the laser pointer when the movement of the laser pointer is fast.
  • FIG. 14 is a diagram showing an example of an image pattern of the laser pointer when the movement of the laser pointer is slow.
  • FIG. 15 is a diagram conceptually showing a process of associating a pointer area of a moving image with an OHP image
  • FIG. 15 (a) is a diagram showing a frame image of the moving image
  • Fig. 15 (b) is a diagram showing an OHP image (bitmap).
  • FIG. 16 is a diagram showing an example of a case where highlight display is performed on an OHP image.
  • FIG. 17 is a block diagram showing a configuration of a content distribution server and a client. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a conceptual diagram of an embodiment of the present invention.
  • a lecture 2 using laser points and OHP is used as a teaching material for E_learning
  • the video of the lecture is shot with a camera as a moving image (video image) 3 and image correspondence composed of a bassocon etc. is attached. It is stored in creating device 1.
  • the OHP file used for the lecture is stored in creating device 1.
  • Image creation The content creation device 1 uses various image processing technologies to The switching timing of P is determined, the frame of the original OHP image corresponding to the frame of the moving image is determined, and the coordinates indicated by the instructor during the lecture at the ⁇ HP. Create Then, using this correspondence table, the video and OHP images are synchronized, and the content 6 for e-learning that reproduces the location 6 pointed by the instructor with a highlight is created. As a result, it is possible to automate the association between moving images and OHP pages, extraction of pointing position information (hereinafter referred to as a pointer area), and highlight display, which were manually performed in the past.
  • an image means a color image.
  • FIG. 2 is a diagram illustrating an example of a functional configuration of the above-described image association / content creating apparatus 1.
  • the image association 'content creation device 1 is composed of an image association device 1a and a content creation device 1b.
  • the image associating device 1a includes a moving image input unit 101 for inputting a moving image of a lecture or the like with an imaging device such as a camera, and a moving image storage for storing the input moving image in an AVI (Audio Visual Interleave) format or the like.
  • OHP file image file and corresponding character information
  • Unit 104 a frame obtaining unit 105 for obtaining an image for each frame from a moving image stored in the moving image storage unit 102, and an OHP region extracting unit 106 for extracting an OHP region from a frame image (video frame image).
  • the OHP acquisition unit 107 for acquiring the OHP file stored in the OHP file storage unit 104, the OHP portion in the frame image extracted by the OHP region extraction unit 106, and the OHP acquired by the HP acquisition unit 107 H
  • Similarity calculator 108 that calculates the similarity of files, and a video / OHP that associates a frame of a moving image with a page of an OHP file based on the similarity calculated by the similarity calculator 108.
  • an association processing unit 109a is
  • the image association ⁇ ⁇ ⁇ ⁇ ⁇ content creation device 1 detects the pointer area detection unit 114 and the pointer area detection unit 114 that detect the pointer area from the image of the frame associated by the moving image / OHP association unit.
  • the obtained pointer area is associated with the HP file image acquired from the HP acquisition unit 107 (the pointer area of the OHP image in the frame image is set on the OHP file image).
  • a moving image for creating a frame of a moving image and information for associating an optical port indicated in the moving image / ⁇ HPZ pointer area ⁇ association processing unit 10 9 b
  • a correspondence table (table storage unit) 110 for storing the correspondence information as a table.
  • the content creation device 1b includes a content creation unit 111 and a content storage unit 112.
  • the content creation unit 111 creates content for E-learning by referring to the association between the frame image and the OHP finale image from the association table 110.
  • the content storage unit 112 stores the content created by the content creation unit 111.
  • the OHP image creating unit with highlight display 116 described as being provided in the image associating device 1a may be provided in the content creating unit 111.
  • FIG. 3 is a diagram illustrating an example of a hardware configuration of the image association / content creation device 1.
  • the image association / content creation device 1 includes a video input control device 11, a CPU (Central Processing Unit) 12, a memory 13, an image HDD (Hard Disk Drive) 15, and a file.
  • An input / output device 14 a program HDD 16, a content HDD 17, a correspondence table (video OHP—pointer position correspondence table) HDD 18, an OHP file HDD 19, a LAN (Local Aria Network) interface 20, , CD-ROM drive 21 and OHP image HDD 22 with highlight display.
  • each functional block shown in the functional configuration diagram in FIG. 2 is a program group stored in the program HDD 16 in FIG.
  • the device 14 and the power function in cooperation with the programs developed on the memory 13.
  • the moving image storage unit 102 is configured by the image HDD 15
  • the OHP file storage unit 104 is configured by the OHP file HDD 19
  • the association table 110 is configured by the association table HDD 18, and the content storage unit 112. Is composed of the content HDD 17.
  • the OHP image HDD 22 with the highlight display may be provided in the content HDD 17 as the content.
  • the above-mentioned program group is not limited to the program HDD 16, but is stored in a medium readable by a computer, for example, a portable storage medium such as a CD-ROM, an FD, a magnetic disk, a DVD disk, a magneto-optical disk, and an IC card. It may be stored, and may be downloaded from a database holding a computer program, or from another computer or its database, or from a transmission medium on a line, etc., and may be developed and executed on the memory 13.
  • the installation form of the program group is not limited.
  • the CD-ROM drive 21 is provided, and a portable storage medium can be read.
  • the LAN interface 20 and the file input / output device 14 make it possible to easily download a program group from another computer / database via a LAN or the like.
  • FIG. 4 is a flowchart showing a processing flow of the entire association processing.
  • the frame acquisition unit 105 extracts the image of the first frame of the moving image from the moving image storage unit 102 (S1000).
  • the OHP area extracting unit 106 searches for and extracts an area in which the OHP image appears (hereinafter, referred to as an OHP area image) in the extracted frame image (S1001).
  • the details of the OHP area extraction processing are shown below.
  • FIG. 5 is a flowchart showing the flow of the HP area image extraction process.
  • frame image data is input to the OHP region extraction unit 106 (S1100).
  • the edge of the frame image is extracted by binarizing the frame image (S1101).
  • Hough transform is performed on the extracted edges to extract straight lines. (S1102).
  • a rectangle is created by integrating the extracted straight line components' (S1103). Only rectangles larger than a predetermined size are extracted from this rectangle (S1104). If no rectangle is extracted in this extraction processing (S1105, NO), it is determined that the entire frame image is an OHP image area, and the entire image is extracted (S1107). If a rectangle is extracted (S1105, YES), the largest rectangle extracted is extracted as an OHP area image (S1106).
  • the OHP image is generally the largest rectangle, so that the area is extracted in the processing of S1106. ing. '
  • the maximum similarity is set to 0 as an initial value (Fig. 4, S1002).
  • the OHP acquisition unit 107 extracts the first page of the OHP image from the OHP file storage unit 104 (S1003).
  • the similarity calculation unit 108 compares the first page of the OHP image extracted in S1003 with the image of the ⁇ HP region of the frame extracted in S1001, and calculates the similarity (S 100 4).
  • the similarity calculation will be described in detail with reference to the drawings.
  • FIG. 6 is a functional configuration diagram of the similarity calculation section 108 showing an example of similarity calculation.
  • similarity is calculated using character information.
  • the similarity is calculated by checking whether two consecutive characters are the same or not.
  • the similarity calculating unit 108 includes an image normalizing unit 130, a frame character extracting unit 131, an OHP character extracting unit 132, a character matching unit 133, and a matching result adding unit 134.
  • the image normalization unit 130 performs a rotation process so that the OHP region image extracted from the frame image matches the direction of the OHP image, and corrects the tilt. If the size of the OHP image is different from that of the OHP image, enlargement processing is performed to correct the size to the same size as the OHP image.
  • Such normalization processing may be executed by the OHP area extraction unit 106 at the time of extraction in S1106 in FIG. 5, and is not particularly limited.
  • the frame character extracting unit 131 recognizes and extracts characters from the OHP area image extracted in S1106 in FIG.
  • the OHP character extraction unit 132 extracts the characters of the page acquired by the OHP acquisition unit 107. In this embodiment, the text of the OHP image is used. Since the character information is already stored in the OHP file storage unit 104 separately for the image file for each page and the corresponding character information, there is no need to perform character recognition processing. You can extract characters just by doing.
  • the character collating unit 133 collates the characters extracted from the frame character extracting unit 131 and the OHP character extracting unit 132.
  • the collation result adding unit 134 digitizes and adds the result collated by the character collation unit 133. The result of the addition is the similarity.
  • FIG. 7 is a flowchart showing a flow of the similarity calculation process executed by the similarity calculation unit 108.
  • an OHP area image is acquired from the frame acquisition unit 105 (S1300), and the frame character extraction unit 131 performs character recognition processing (S1301). This character recognition processing is performed using a known technique.
  • FIG. 8 is a flowchart showing details of the character recognition processing.
  • the obtained OHP region image is binarized (S1310), and region identification is performed (S1311). Character recognition is performed by firing (S1312), and the recognition result is output as text (S1313).
  • the initial value of the similarity is set to 0 (FIG. 7, S1302).
  • the first character of the recognition result by the frame character extraction unit 131 is set as a reference character.
  • the character located at the position corresponding to the set reference character in the OHP image and the character located next to the character are extracted by the OHP character extracting unit 132 (S1303).
  • the character matching unit 133 compares the character string recognized by the frame character extracting unit 131 with the character string extracted by the OHP character extracting unit 132, and determines whether two consecutive characters are the same. Match. If they are the same (S1304, YES), the matching result adding unit 134 increments the similarity (S1305).
  • Similarity Similarity ZOH P Number of characters
  • the similarity calculation may be performed using image (pixel signal) information or layout information (area attributes such as figures, tables, and character string blocks and their coordinate information) in addition to using character information. These may be used in combination.
  • the above-described similarity calculating section 108 calculates the similarity between the OHP region image of a certain frame and all the OHP images. Specifically, in FIG. 4, after the similarity of the first page of the OHP image is calculated (S1004), if the similarity is equal to or greater than the maximum similarity (0 in the first stage), (S1005, YES), the similarity is set to the maximum similarity, and the page number of the OHP image is recorded (S1006). If the matching of all pages of the OHP image has not been completed at this time (S1007, NO), the next page of the OHP image is extracted, and the similarity calculation process of S1004 is repeated.
  • a pointer area is detected (extracted) from the frame image (S1009).
  • This pointer area is extracted by the pointer area detector 114 shown in FIG.
  • the pointer area detection device of the present invention is configured by a pointer area detection unit that executes the processing to be described below using a computer and software.
  • One of the processes in the pointer area detection unit 114 is as follows. First, when a frame image is acquired (S1401), from the RGB values in the frame image, for example, 3 R—2 G—B The point where the maximum is obtained is used to extract the Vointer region. R ⁇ 230 power 3R-2G-B ⁇ 155 (Conditional expression) The other is to perform the processing shown in Fig. 9 from the frame image and obtain the center of gravity G of the pointer area as shown in Fig. 13. First, a frame image is acquired (S1401), and points satisfying the following equation (1) are extracted to create a binary image (S1402).
  • the pointer area is verified using the color information (S1406), and then the pointer area is verified using the shape (S1407).
  • the area is recorded as a pointer area (S1408).
  • One of the recorded pointer areas is selected (S1410), and the coordinates in the HP image are calculated (S1411).
  • the verification of the pointer area is performed using both the color information and the shape information, but only one of them may be used. When both are used, the accuracy is improved, but the calculation process takes time. When only one of them is used, the accuracy is lowered, but the calculation processing time can be shortened.
  • the coordinates of the group area grouped in S1404 are acquired (S1501).
  • the group area from the entire color image The frame is enlarged (the group area is enlarged by the specified number of pixels around it) to create a clipped color image (S1502), and perform color labeling (S1503).
  • a label area having a maximum area other than the pattern obtained by the binary image in the group area is extracted as a background, and its average color is obtained (S1504).
  • S1505 an average color is created from a color image corresponding to a binary image portion in the group area.
  • pixels in the group area whose average color and color difference are within a certain threshold value are extracted as a pointer area, and the average color is obtained (S1506).
  • the first processing and the second processing are combined to determine whether the color distribution of the pointer area extracted from the image matches the laser pointer color distribution table for each background color shown in FIG. (S1507), if they match, it is determined to be the laser pointer area (S1508). On the other hand, if they do not match, it is not determined to be the laser pointer area (S1509).
  • the coordinates of the group area are obtained (S1601), and a group obtained by enlarging the group area obtained in S1404 by a predetermined number of pixels around the group area is set as a new group area, which corresponds to a binary image portion in the group.
  • the average color is created with the pixels of the color image to be created (S1602).
  • the ones in the group area are noted, and the average color of points on the color image (frame image) having the same coordinates as the coordinates of this pattern (Rm, Gm, Bm).
  • a pixel whose average color and color difference are within a certain threshold value within the same group area is extracted as a pointer pattern (S1603). That is, a pattern having a color close to the average color is extracted in the group area. For example, all pixels satisfying the following equation (2) are extracted.
  • (Ri, Gi, Bi) is the RGB value Th_dist of the pixel i in the group area
  • Th_dist is a predetermined fixed threshold
  • an elliptical envelope including all the extracted pixels is obtained. That is, an ellipse close to the envelope of the pattern is obtained (S1604).
  • the laser pointer pattern shown in FIGS. 13 and 14 is generated by the movement of the laser pointer (or the camera).
  • Fig. 13 shows the case of fast movement.This is because the laser pointer moves during the interlaced scan time because interlaced shooting is performed during video shooting.
  • Fig. 14 shows the case where the movement is slow, and the missing part is where the laser pointer could not be correctly extracted due to noise. In such a case, an elliptic curve forming the envelope shown in FIGS. 13 and 14 is obtained.
  • the variance / covariance matrix is created from the vector of all black pixels, considering the coordinates of the black pixels in the group area as vectors.
  • the odd raster and the even raster are separately examined, and in either raster, the ratio of the black pixels obtained in S1663 is compared with the total number of pixels on the raster (S1 6 0 5), if it is not less than a certain ratio, it is determined to be a laser pointer (S 16 06), and other than that is determined to not be a laser pointer (S 16 0 6)
  • a plurality of pointer areas may be recorded from one frame image.
  • a pixel having an average color and a color difference within a certain threshold value within the group area is extracted as a pointer area (S1506).
  • the pixel with the largest number of pixels is selected as the correct pointer area.
  • Frame number 50 HP number 5, (81, 51) Frame number N-1: 0 HP number 10, (34, 96)
  • Frame number N 0 HP number 10, (one one, one one)
  • the coordinate values are not only the absolute coordinates of the OHP image, but also the length and width of the displayed image. / 0 display.
  • 11 shown in the coordinate value indicates that the pointer is not irradiated.
  • the content creating device 1 creates the content for e-Learning corresponding to the pointing information.
  • WBT Web based Training
  • an image is generated by highlighting the vicinity of the pointer 41 in the OHP image.
  • the area 42 such as character strings, text boxes, figures, and tables in the corresponding OHP slide is directly obtained from the PPT file that is the OHP slide (or the OHP image is subjected to layout analysis and Area), and create an image with a conspicuous border such as red in that area.
  • This image name is ⁇ HP number name—index number (number incremented from 1 in the OHP number). However, if the coordinate value is 11, the highlighting is not performed and the image name with only the OHP number is used.
  • Frame number N-1: OHP number 10, (34, 96), image name 10-1
  • FIG. 17 is a block diagram showing a content distribution server for distributing the content created as described above and a client receiving the content distribution server.
  • the content distribution server includes a video-OHP-pointer position correspondence table storage unit 51, an OHP file storage unit 52, a video image storage unit 53, a video-OHP correspondence table storage unit 58, and an OHP with highlight display.
  • An image storage unit 57 is provided as a storage unit, and a content distribution request receiving unit 54 and a distribution request content transmission A section 55 and a content distribution control section 56 for controlling these sections are provided.
  • the client 60 includes a content delivery request transmitting section 61, a content receiving section 62, a video reproducing section 64, a video-compatible OHP / pointer position acquiring section 63, a display section 65, A control unit 66 for controlling the control is provided.
  • the content server searches for the specified content on the storage device, reads the corresponding content, and distributes it to the client.
  • This content includes the video image, the OHP file synchronized with the video image, and pointer position information in the OHP file.
  • This OHP file can be the one highlighted or not.
  • the client plays the video data from the distributed content and displays the OHP (slide) synchronized with the video frame and the pointing position information in the ⁇ HP.
  • the conventional authoring system for creating e-learning content automatically synchronizes the video that describes the OHP with the OHP image that is displayed on the OHP image, and automatically synchronizes it.
  • the conventional authoring system for creating e-learning content automatically synchronizes the video that describes the OHP with the OHP image that is displayed on the OHP image, and automatically synchronizes it.
  • special devices are not required, and general devices such as a personal computer, a projector, and a laser pointer and a video camera are used. It is possible to provide a pointer area (position) detection device, a pointer area detection method, and a pointer area detection program which can detect a laser pointer position from a video taken only with a pointer, and which can be realized at low cost. it can. Further, according to the present invention, for example, an OHP file (original document) used in a lecture or the like is associated with a moving image obtained by photographing the lecture or the like, and a part of the OHP image specified in the lecture is converted to an OHP file.
  • OHP file original document

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Position Input By Displaying (AREA)

Abstract

 ビデオフレームの画像中に撮像されているOHP画像において、OHP画像の所定箇所を指示している光学ポインタの領域を検出するポインタ領域検出部114と、前記ビデオフレームの画像中に撮像されているOHP画像と前記OHP画像の元文書であるOHPファイルとを対応付ける画像対応付け部109と、前記ポインタ領域検出部により検出された光学ポインタの領域を前記画像対応付け部により対応付けられたOHPファイルの領域に対応付けるポインタ領域対応付け部115とを備えてなる。

Description

明 細 書
ポインタ領域検出装置、 方法及びプログラム、 画像の対応付け装置、 方法及びプ ログラム、 並びにコンテンツ配信サーバ、 コンテンツ配信方法 技術分野
本発明は、 O H P (Overhead Projector)を使用した講義を撮像したビデオフレ ームの画像において、 〇H P上でのボインタ位置を検出するポィンタ位置検出装 置、 ポインタ位置検出方法、 並びにポインタ位置検出プログラムに関する。 また 、 本発明は、 例えば講義などで使用された〇H Pファイルと、 講義などを撮影し た動画像とを対応付けると共に、 講義において指示されている〇H Pの部分を O H Pファイル上に明確に表示できるようにした画像対応付け装置及び画像対応付 け方法並びに画像対応付けプログラム、 及びそのようにして作成されたコンテン ッを配信することができるコンテンッ配信サーバに関するものである。 背景技術
社内教育や、 一般の教育分野では、 e_learning の導入が行われつつある。 E- learning は、 ィンタ一ネットを使った遠隔地教育で、 WE B画面を使って行わ れることが多い。 E- learning の形態は多種あるが、 その中で普通の講義をもつ ともよく再現するものとして、 講義の動画像 (ビデオ画像) の再生と、 それに同 期した O H Pの拡大表示のコンテンツがある。 このコンテンツを使うことで、 受 講者は、 講師が使用する O H Pの拡大表示を視認することによって、 O H Pの内 容が容易に理解されることになる。 つまり従来のコンピュータディスプレイ画面 上の制約から課題であった、 講師が示した O H Pの場所とその内容の詳細表示が 同時に可能になり、 実際に講義を受講しているのとほぼ同じ環境が提供できるこ とになる。
し力 し、 このシステムを実現するためには、 O H Pを説明する動画像と、 そこ に映し出されている OH Pの詳細表示が時間的に同期がとれている必要がある。 現在の e-learningのコンテンツ作成用のォーサリングシステムでは、 この部分 を手動で行っていたため、 コンテンツ作成には膨大な時間がかかっている。 この 問題の解決のため、 本発明者等は、 既に 「動画像元文書対応付け方式」 として、 動画と元文書の対応付けの自動化を提案している (特願 2002-080500 号) 。
一方、 実際の講義では、 講師は、 OHPの内容を順番に説明していく。 つまり、 音声による話の内容に従って、 注目する〇HP上の箇所が移動していく。 上述の 動画一 OHP同期型の e- learning コンテンツでは、 動画内の OHPの切り替わ りだけを検出して、 対応する OHP表示を切り替えているだけなので、 1つの O HPの中で、 講師が話している箇所を注目させることはできなかった。
このため、 動画に同期して表示される OHPにおいて、 講師の説明箇所を表示 するようにできれば、 受講者は〇HPにおける講師の説明箇所を容易に注目する ことができるが、 このためには、 上記コンテンツを作成するに際して動画像 (ビ デォフレームの画像) 中から講師が O H Pにおレ、て指示しているポインタ位置を 検出しなければならない。
従来より、 このようなボインタ位置の検出装置としては、 例えば以下のような ものが知られている。
(1) 指示棒を使うもの
(a) 指示棒を使い、 ビデオカメラで撮影した指示棒と指示棒の影を抽出して、 ポインティング位置を獲得する方法 (例えば、 特許文献 1参照) 。
(b) 先端発光型の特殊指示棒を使い、 特定の波長光だけを抽出することでボイ ンティング位置を獲得する方法 (例えば、 特許文献 2参照) 。
( 2 ) レーザーボインタを使うもの
( a ) レーザーポィンタを使用し、 レーザー光の点滅とビデオフレームを同期さ せて映像投影領域とポインティング位置を獲得する方法 (例えば、 特許文献 3参 照) 。
( b ) レーザーボインタを使用し、 投影画像と撮影画像が全く同じ大きさになる 装置を使って、 投影画像と撮影画像の差分によりボインティング位置を獲得する 方法 (例えば、 特許文献 4参照) 。
(c) レーザーポインタを使用し、 投影画像と撮影画像が全く同じ大きさになる 装置を使って、 スクリーン上のポインティングマーカの座標を特定波長光、 また は特定周期明滅または特定偏光または投影映像と撮像映像の差分画像により獲得 する方法 (例えば特許文献 5参照) 。
(d) レーザーポインタを使用し、 スクリーン上の基準マーカとポインティング マーカを赤外線ボインタで表示して、 赤外線フィルタを通してその位置を獲得し て、 ポインティングマーカの座標を獲得する方法 (例えば特許文献 6参照) 。
(特許文献 1 )
特開平 8— 32092 1号公報
(特許文献 2)
特開平 1 0— 83246公報
(特許文献 3)
特開平 8— 331 66 7号公報
(特許文献 4)
特開平 9-62444号公報
(特許文献 5)
特開平 9一 803 72号公報
(特許文献 6)
特開平 1 1—85395号公報
し力 しながら、 (1) の指示棒を使うものは、 講師が講義し難いという課題が ある。 また、 コンテンツでは、 講師の顔を中心にアップで撮影したいというニー ズがぁり、 指示棒を使うことで顔が移動することは、 この場合に好ましくない。 また、 (2) のレーザーボインタを使う方法においては、 以下のような理由に よりコストが掛かるという問題がある。
(a) の場合、 ビデオフレームに同期させて点滅をさせる特殊なレーザーボイン タと、 レーザーボインタの点滅同期とビデオ映像を同時にキヤプチヤする特殊な 装置が必要となる。
(b) の場合は、 ビデオ投影と撮影を同時に行う一体型の特殊な装置が必要とな る。 また、 投影画像と撮影画像が全く同じ大きさになる装置が必要となる。
(c) の場合は、 (b) の場合と同様に投影画像と撮影画像が全く同じ大きさに なる装置が必要となる。 ( d ) の場合は、 スクリーン上に赤外線で照射した基準マーカとポ マー力が必要で、 このために特殊なレーザーポインタ、 投影装置が必要となる。 つまり、 上述した従来のポインタ検出技術では、 1 ) レーザーポインタを撮影 したビデオからレーザーポインタ位置を検出するために、 特殊な装置、 環境が必 要となる。 2 ) プロジェクタで投影した映像を撮影した映像からボインタ位置を 検出し、 それを元のコンテンツ内の座標に変換、 または対応付けるために、 特殊 な装置が必要となる。 3 ) 常にプロジェクタ投影画像全体がカメラフレームに収 まるように撮影すること (またはそのような装置) が条件で、 プロジェクタ投影 画像をズーム撮影したり、 カメラを上下左右に移動してプロジェクタ投影画像の —部だけ撮影したりすることができない。
本発明は、 上述した課題を解決するためになされたものであり、 特殊な装置を 必要とせず、 パソコン、 プロジェクタの投影装置と、 レーザーポインタ、 ビデオ カメラという一般的な装置だけで撮影したビデオ画像からレーザーボインタ位置 を検出することができ、 もって、 低コストに実現できるポインタ領域検出装置、 ボインタ領域検出方法、 並びにボインタ領域検出プログラムを提供することを目 的とする。
また、 本発明は、 例えば講義などで使用された O H Pファイル (元文書) と、 講義などを撮影した動画像とを対応付けると共に、 講義にぉレヽて指示されている O H P画像の部分を OH Pフアイル上に明確に表示できるようにした画像対応付 け装置及び画像対応付け方法並びに画像対応付けプログラムを提供するとともに、 このように対応付けされた動画像と O H Pフアイノレとをコンテンツとして配信す るコンテンッ配信サーバ及びそのようなコンテンッ配信方法を提供することを目 的としている。 発明の開示
上述した課題を解決するため、 本発明は、 O H P画像の所定箇所を指示してい る光学ポィンタの領域を該 O H P画像が撮像されたビデオフレームの画像にお!/ヽ て検出するボインタ領域検出装置であって、 ビデオフレームの画像の各画素領域 における R G B値を取得する R G B値取得部と、 前記 R G B取得部により取得さ れた R G B値のそれぞれを変数とする所定の式を満たす画素領域をポインタ領域 候補として抽出するボインタ領域候補抽出部と、 前記ボインタ領域抽出部により 抽出されたボインタ領域候補のうち、 所定の評価値が最も高くなる画素領域をポ インタ領域と判定するポインタ領域判定部とを備えてなるものである。
ここに、 前記所定の式は R≥ 2 3 0、 且つ、 3 R— 2 G— B≥ 1 5 5であり、 前記評価値は、 3 R—2 G— B で与えられることを特徴とする。
また、 本発明は、 ビデオフレームの画像中に撮像されている O H P画像におい て OH P画像の所定箇所を指示している光学ポインタの領域を検出するポインタ 領域検出装置であって、 ビデオフレームの画像の各画素領域における R G B値を 取得する R G B値取得部と、 前記 R G B取得部により取得された R G B値及び色 相における所定の式を満たすカゝ否かで 2値画像を作成する 2値画像作成部と、 前 記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領域候補抽 出部と、 ビデオフレームの画像における前記複数の領域候補のそれぞれが含まれ る各領域において前記領域候補を除く部分を用いて背景色を求める背景色演算部 と、 ビデオフレームの画像における前記複数の領域候補のそれぞれが含まれる各 領域にお!/、て前記領域候捕の部分を用レヽてポインタ領域候補の平均色を求めるポ ィンタ領域候補平均色演算部と、 前記背景色に対するボインタ領域候補の平均色 の色分布に基づいて前記ボインタ領域候補がボインタ領域であるカゝ否かを判定す る、 色情報を用いたボインタ領域判定部とを備えてなるものである。
このポインタ領域検出装置において、 前記領域候補抽出部は、 前記ラベリング により得られたバタ一ンにつレ、て外形矩形を求め、 さらに外形矩形の周囲及ぴそ れから一定距離内にある外形矩形を一つのグループとして複数のグループを作成 して各グループを前記領域候補とすることを特徴とする。 このボインタ領域検出 装置において、 前記領域候補抽出部は、 さらに前記各グループを所定画素数だけ 周囲に拡大してなる領域を前記領域候補とすることを特徴とする。
また、 本発明のポインタ領域検出装置において、 前記背景色演算部は、 前記領 域候補抽出部により抽出された領域における前記ビデオ画像を色ラベリングし、 前記パターンの領域を除いた部分で最大面積を有するラベル領域を背景領域とし て、 該背景領域について平均色を求めることを特徴とする。 また、 本発明のポインタ領域検出装置において、 前記ポインタ領域候補平均色 演算部は、 ビデオフレームの画像における前記複数の領域候補のそれぞれが含ま れる各領域において平均色を求めると共に、 前記領域候補内で平均色と一定のし きい値以内の画素をボインタ領域候補として抽出して、 該ポィンタ領域候補にお ける平均色を求めてポインタ領域候補の平均色とすることを特徴とする。
また、 本発明のポインタ領域検出装置において、 前記ポインタ領域判定部は、 前記背景色演算部により求められた背景色に対する前記ボインタ領域平均色演算 部により得られた平均色の色分布と、 予め記憶された前記背景色に対するレーザ 一ボインタの色分布とがー致すると認められるか否かにより前記ボインタ領域候 補がボインタ領域であるか否かを判定することを特徴とする。
さらに、 本発明のポインタ領域検出装置において、 各背景色毎にレーザーボイ ンタの色分布テーブルを備えていることを特徴とする。
また、 本発明は、 OH P画像の所定箇所を指示している光学ボインタの領域を 該 O H P画像が撮像されたビデオフレームの画像において検出するボインタ領域 検出装置であって、 ビデオフレームの画像の各画素領域における R G B値を取得 する R G B値取得部と、 前記 R G B取得部により取得された R G B値及び色相に おける所定の式を満たすか否かで 2値画像を作成する 2値画像作成部と、 前記 2 値画像において、 ラベリングを用いて複数の領域候補を抽出する領域候補抽出部 と、 ビデオフレームの画像において、 前記複数の領域候補のそれぞれが含まれる 各領域における平均色を求める平均色演算部と、 前記平均色を用いて前記各領域 候補の領域内でボインタパターンの候補を抽出するボインタパターン候補抽出部 と、 前記ポインタパターンの包絡線を用いて楕円形状を求める楕円形状演算部と、 前記楕円形状の面積と前記ポインタパターンを形成する画素の占める面積との比 率に基づいて前記ボインタパターン候 ¾iがレーザボインタ領域である力、否かを判 定する、 形状を用いたポインタ領域判定部とを備えてなるものである。
また、 本発明のポインタ領域検出装置において、 前記ポインタパターン候補抽 出部は、 前記平均色と一定のしきい値内にある色を有する画素を含んで前記ボイ ンタパターンとすることを特徴とする。
また、 本発明のポインタ領域検出装置において、 前記ポインタ領域判定部は、 前記楕円形状内で、 奇数ラスターと偶数ラスターを別に調べ、 どちらかのラスタ 一で求めた前記ポインタパターンを形成する画素がある比率をラスター上の総画 素数と比較し、 それが一定比率以上であればレーザーボインタであると判定する ことを特 ί敫とする。
また、 本発明は、 〇Η Ρ画像の所定箇所を指示している光学ポインタの領域を 該 Ο Η Ρ画像が撮像されたビデオフレームの画像にぉ 、て検出するボインタ領域 検出方法であって、 ビデオフレームの画像の各画素領域における R G B値を取得 する R G B値取得ステップと、 前記 R G B取得部により取得された R G B値のそ れぞれを変数とする所定の式を満たす画素領域をボインタ領域候補として抽出す るボインタ領域候補抽出ステップと、 前記ボインタ領域抽出部により抽出された ボインタ領域候補のうち、 所定の評価値が最も高くなる画素領域をボインタ領域 と判定するポインタ領域判定ステツプとを備えてなるものである。
また、 本発明は、 O H P画像の所定箇所を指示している光学ボインタの領域を 該 O H P画像が撮像されたビデオフレームの画像において検出するボインタ領域 検出方法であって、 ビデオフレームの画像の各画素領域における R G B値を取得 する R G B値取得ステップと、 前記 R G B取得部により取得された R G B値及び 色相における所定の式を満たすか否かで 2値画像を作成する 2値画像作成ステッ プと、 前記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領 域候補抽出ステップと、 ビデオフレームの画像における前記複数の領域候補のそ れぞれが含まれる各領域において前記領域候補を除く部分を用いて背景色を求め る背景色演算ステップと、 ビデオフレームの画像における前記複数の領域候補の それぞれが含まれる各領域において前記領域候補の部分を用いてボインタ領域候 捕の平均色を求めるボインタ領域候補平均色演算ステップと、 前記背景色に対す るボインタ領域候補の平均色の色分布に基づいて前記ボインタ領域候補がボイン タ領域である力否かを判定する色情報を用いたポインタ領域判定ステップとを備 えてなるものである。
また、 本発明は、 O H P画像の所定箇所を指示している光学ポインタの領域を 該〇 H P画像が撮像されたビデオフレームの画像において検出するボインタ領域 検出方法であって、 ビデオフレームの画像の各画素領域における R G B値を取得 する R G B値取得ステツプと、 前記 R G B取得部により取得された R G B値及ぴ 色相における所定の式を満たすか否かで 2値画像を作成する 2値画像作成ステツ プと、 前記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領 域候補抽出ステップと、 ビデオフレームの画像において、 前記複数の領域候補の それぞれが含まれる各領域における平均色を求める平均色演算ステップと、 前記 平均色を用レ、て前記各領域候補の領域内でボインタパターンの候補を抽出するポ インタパターン候補抽出ステップと、 前記ポインタパターンの包絡線を用!/、て楕 円形状を求める楕円形状演算ステップと、 前記楕円形状の面積と前記ポインタパ ターンを形成する画素の占める面積との比率に基づいて前記ポインタパターン候 補がレーザボインタ領域であるか否かを判定する形状情報を用いたボインタ領域 判定ステップとを備えてなるものである。
また、 本努明は、 O H P画像の所定箇所を指示している光学ポインタの領域を 該 O H P画像が撮像されたビデオフレームの画像にぉレ、て検出する処理をコンビ ユータに実行させるポインタ領域検出プログラムであって、 ビデオフレームの画 像の各画素領域における R G B値を取得する R G B値取得ステップと、 前記 R G B取得部により取得された R G B値のそれぞれを変数とする所定の式を満たす画 素領域をボインタ領域候補として抽出するボインタ領域候補抽出ステップと、 前 記ボインタ領域抽出部により抽出されたボインタ領域候補のうち、 所定の評価値 が最も高くなる画素領域をポインタ領域と判定するポインタ領域判定ステツプと をコンピュータに実行させるものである。
また、 本発明は、 O H P画像の所定箇所を指示している光学ポインタの領域を 該 O H P画像が撮像されたビデオフレームの画像にぉレ、て検出する処理をコンビ ユータに実行させるポインタ領域検出プログラムであって、 ビデオフレームの画 像の各画素領域における R G B値を取得する R G B値取得ステップと、 前記 R G B取得部により取得された R G B値及ぴ色相における所定の式を満たすか否かで 2値画像を作成する 2値画像作成ステップと、 前記 2値画像において、 ラベリン グを用いて複数の領域候補を抽出する領域候補抽出ステップと、 ビデオフレーム の画像における前記複数の領域候補のそれぞれが含まれる各領域において前記領 域候補を除く部分を用いて背景色を求める背景色演算ステツプと、 ビデオフレー ムの画像における前記複数の領域候補のそれぞれが含まれる各領域において前記 領域候補の部分を用いてボインタ領域候補の平均色を求めるボインタ領域候補平 均色演算ステップと、 前記背景色に対するボインタ領域候補の平均色の色分布に 基づいて前記ボインタ領域候補がボインタ領域であるか否かを判定する色情報を 用いたポインタ領域判定ステップとをコンピュータに実行させるものである。 また、 本発明は、 〇 H P画像の所定箇所を指示している光学ポインタの領域を 該〇H P画像が撮像されたビデオフレームの画像において検出する処理をコンビ ユータに実行させるポインタ領域検出プログラムであって、 ビデオフレームの画 像の各画素領域における R G B値を取得する R G B値取得ステップと、 前記 R G B取得部により取得された R G B値及び色相における所定の式を満たす力否かで 2値画像を作成する 2値画像作成ステツプと、 前記 2値画像にお!/、て、 ラベリン グを用いて複数の領域候補を抽出する領域候補抽出ステップと、 ビデオフレーム の画像にぉレ、て、 前記複数の領域候補のそれぞれが含まれる各領域における平均 色を求める平均色演算ステップと、 前記平均色を用レヽて前記各領域候補の領域内 でポインタパターンの候補を抽出するポインタパターン候補抽出ステップと、 前 記ポインタパターンの包絡線を用いて楕円形状を求める楕円形状演算ステップと 、 前記楕円形状の面積と前記ポインタパターンを形成する画素の占める面積との 比率に基づいて前記ポィンタパターン候補がレーザポィンタ領域である力否かを 判定する形状情報を用レ、たボインタ領域判定ステツプとをコンピュータに実行さ せるものである。
また、 本発明に係る画像対応付け装置は、 O H P画像の所定箇所を指示してい る光学ボインタの領域を該 O H P画像が撮像されたビデオフレームの画像にぉレヽ て検出するボインタ領域検出部と、 ビデオフレームの画像中に撮像されている O H P画像と前記 O H P画像の元文書である O H Pファイルとを対応付ける画像対 応付け部と、 前記ボインタ領域検出部により検出された光学ボインタの領域を前 記画像対応付け部により対応付けられた O H Pフアイルの領域に対応付けるボイ ンタ領域対応付け部とを備えてなるものである。
この画像対応付け装置において、 前記ポインタ領域対応付け部は、 前記ポイン タ領域検出部により検出された領域に関連する領域における O H P画像中の文字 情報と、 前記 O H Pフアイルの文字情報とに基づ!/、て、 前記ボインタ領域検出部 により検出された光学ボインタの領域を前記ビデオフレームの画像中に撮像され ている 0 H P画像の元文書である O H Pフアイルの領域に対応付けることを特徴 とする。 '
また、 本発明の画像対応付け装置において、 前記画像対応付け部は、 ビデオフ レームの番号と〇 H Pフアイルの頁番号とを対応付け、 前記ボインタ領域対応付 け部は、 前記ポインタ領域検出部により検出された光学ポインタの領域を前記〇 H Pフアイルにおける座標として対応付けることを特徴とする。
また、 本発明の画像対応付け装置において、 前記ポインタ領域対応付け部は前 記 O H Pファイルにおける前記ポインタ領域と関連する領域をハイライト表示さ せるように対応付けることを特徴とする。
また、 本発明に係る画像対応付け方法は、 O H P画像の所定箇所を指示してい る光学ボインタの領域を該 O H P画像が撮像されたビデオフレームの画像にぉレ、 て検出するボインタ領域検出ステップと、 ビデオフ I /一ムの画像中に撮像されて いる O H P画像と前記 O H P画像の元文書である O H Pファイルとを対応付ける 画像対応付けステップと、 前記ボインタ領域検出部により検出された光学ボイン タの領域を前記画像対応付け部により対応付けられた O H Pファイルの領域に対 応付けるボインタ領域対応付けステップとを備えてなるものである。
また、 本発明は、 ビデオフレームとビデオフレームの画像に撮像されている O H P画像に対応する OH Pファイルとを対応付ける処理をコンピュータに実行さ せる画像対応付けプログラムであって、 ビデオフレームの画像中に撮像されてい る O H P画像において OH P画像の所定箇所を指示している光学ボインタの領域 を検出するポインタ領域検出ステツプと、 前記ビデオフレームの画像中に撮像さ れて V、る O H P画像と前記〇 H P画像の元文書である O H Pファイルとを対応付 ける画像対応付けステップと、 前記ポインタ領域検出部により検出された光学ポ ィンタの領域を前記画像対応付け部により対応付けられた O H Pファイルの領域 に対応付けるポインタ領域対応付けステップとをコンピュータに実行させるもの である。
また、 本発明に係るコンテンツ配信サーバは、 ビデオ画像を記憶するビデオ画 像記憶部と、 該ビデオ画像に撮像されている O H P画像の元文書である O H Pフ アイルを記憶した O H Pファイル記憶部と、 前記ビデオ画像のフレーム番号と、 前記ビデオ画像に撮像されている O H P画像に対応する O H Pフアイルの頁番号 とを対応付けると共に、 前記ビデオ画像に撮像されている OH P画像において示 される光学ポインタの領域を前記 O H Pフアイルの領域に対応付ける対応付け情 報とを記憶した対応付け情報記憶部と、 前記ビデオフレームの画像に対応付けら れた O H Pフアイル画像と前記 O H Pフアイルにおける光学ボインタ領域の情報 とを送信するための送信部とを備えてなるものである。
また、 本発明のコンテンッ配信サーバと該サーバに接続されたクライアントと の間でコンテンッ配信を行うコンテンッ配信方法であって、 クライアントがコン テンッ配信サーバに対して指定コンテンッの配信を要求するコンテンッ酉己信要求 ステップと、 前記要求に対し、 コンテンツ配信サーバは、 各記憶部から要求に係 るコンテンツを検索し、 該当するビデオ画像、 該ビデオ画像に対応付けられた O H Pファイル、 及び O H Pフアイル内のボインタ位置情報を送信するコンテンツ 送信ステップと、 クライアントにおいて、 配信されたコンテンツの中からビデオ データを再生すると共に、 ビデオフレームに同期した OH Pファイル画像と O H Pフアイル画像内のボインティング位置情報を表示する表示ステップとを備えて なるものである。 図面の簡単な説明
第 1図は、 本発明の実施の形態の概念図である。
第 2図は、 画像対応付け 'コンテンツ作成装置の機能構成図である。
第 3図は、 画像対応付け ' コンテンツ作成装置のハードウェア構成図である。 第 4図は、 画像対応付け装置の対応付け処理の流れを示したフローチャートで ある。
第 5図は、 OH P領域画像抽出処理の流れを示したフローチヤ一トである。 第 6図は、 文字情報により類似度を算出する類似度算出部の機能構成図である 第 7図は、 第 6図の類似度算出部により実行される類似度算出処理の流れを示 したフローチヤ一トである。
第 8図は、 文字認識処理の詳細を示したフローチヤ一トである。
第 9図は、 ポインタ領域検出部の処理を示すフローチヤ一トである。
第 10図は、 色情報を用いたポインタ領域の検証処理を示すフローチャートで ある。
第 1 1図は、 背景色 (RGB) 毎のレーザーポインタの色 (RGB) 分布を示 す図である。
第 12図は、 形状を用いたポインタ領域の検証処理を示すフローチャートであ る。
第 13図は、 レーザーポインタの動きが速いときのレーザーポインタの画像パ タ一ンの一例を示す図である。
第 14図は、 レーザーボインタの動きが遅いときのレーザーボインタの画像パ ターンの一例を示す図である。
第 15図は、 動画像のポインタ領域を OHP画像に対応付ける処理を概念的に 示す図であり、 第 15図 (a) は動画像のフレーム画像を示す図である。 第 15 図 (b) は OHP画像 (ビットマップ) を示す図である。
第 16図は、 OHP画像にハイライト表示を行った場合の一例を示す図である 第 17図は、 コンテンッ配信サーバとクライアントの構成を示すブロック図で ある。 発明を実施するための最良の形態
以下、 図を用いて本発明の実施の形態を詳細に説明する。
第 1図は、 本発明の実施の形態の概念図である。 まず、 レーザポイントと OH Pを使った講演 2を E_learningの教材として使用する場合、 その講演の映像を動 画 (ビデオ画像) としてカメラ撮影 3し、 バソコン等から構成される画像対応付 け .コンテンツ作成装置 1に保存する。 また、 講演に使用した OHPのファイル
4を同じ装置 (画像対応付け 'コンテンツ作成装置 1) へ保存する。 画像対応付 け .コンテンツ作成装置 1では、 様々な画像処理技術を使用して、 動画中の OH Pの切り代わりタイミングを求め、 元の OHPの画像が動画像のどのフレームに 対応しているかを求めるとともに、 その〇HP.において、 講師が講演中に指し示 した座標を求め、 それらの対応表を作成する。 そして、 この対応表を使用して、 動画と OHPの画像との同期をとり、 力つ、 講師が指し示す場所 6をハイライト 表示で再生する e- learning用のコンテンツ 5を作成する。 これにより従来手動で 行っていた動画と OHPの各ページとの対応付けおよび、 ポィンティング位置情 報 (以下、 ポインタ領域という) 抽出、 ハイライト表示が自動化できる。 なお、 以下の説明において、 画像とはカラー画像を意味するものとする。
第 2図は、 上述した画像対応付け 'コンテンツ作成装置 1の機能構成の一例を 示した図である。 図において、 画像対応付け 'コンテンツ作成装置 1は、 画像対 応付け装置 1 aとコンテンッ作成装置 1 bとにより構成される。 画像対応付け装 置 1 aは、 カメラ等の撮像装置で講義等の動画像を入力する動画像入力部 101 と、 入力された動画像を A V I (Audio Visual Interleave)形式等で記憶する動 画像記憶部 102と、 他のコンピュータシステム等から OHPファイル (画像フ アイルとそれに対応する文字情報) を入力する入力部 103と、 入力された OH Pファイル 1頁毎に対応を付けて記憶する O H Pフアイル記憶部 104と、 動画 像記憶部 102に記憶された動画像からフレーム毎の画像を取得するフレーム取 得部 105と、 フレーム画像 (ビデオフレームの画像) から OHP領域を抽出す る OHP領域抽出部 106と、 OHPファイル記憶部 104に記憶された OHP フアイルを取得する O H P取得部 107と、 O HP領域抽出部 106により抽出 されたフレーム画像にある O H P部分と〇 H P取得部 107により取得された O HPファイルの類似度を算出する類似度算出部 108と、 類似度算出部 108に より算出された類似度に基づ!/、て動画像のフレームと O H Pフアイルの頁とを対 応付ける動画/ OHP対応付け処理部 109 aとを備える。
また、 この画像対応付け 'コンテンツ作成装置 1は、 動画/ O HP対応付け部 により対応付けられたフレームの画像からボインタ領域を検出するボインタ領域 検出部 1 14と、 ポインタ領域検出部 1 14により検出されたポインタ領域を〇 H P取得部 107力 ら取得された〇 H Pフアイル画像上に対応付ける (フレーム 画像にある O H P画像のポィンタ領域を O H Pフアイルの画像上に設定する) ポ インタ領域対応付け処理部 1 15と、 対応付けられた O HP画像にハイライト表 示を行うハイライト表示付き〇HP画像作成部 116と、 動画/ OHP対応付け 処理部 109による対応付け結果とボインタ領域対応付け処理部 115により処 理結果とに基づいて、 動画像のフレームとその動画像において示された光学ポィ 付ける対応付け情報を作成する動画 /〇HPZボインタ領域对応付け処理部 10 9 bと、 対応付け情報をテ一ブノレとして保存する対応付けテーブル (テーブル記 憶部) 1 10とを備えている。
また、 コンテンツ作成装置 1 bは、 コンテンツ作成部 1 1 1と、 コンテンツ記 憶部 1 12とから構成されている。 コンテンツ作成部 1 11は、 対応付けテープ ル 1 10からフレーム画像と OHPフアイノレ画像との対応付けを参照して、 E - le arning用のコンテンッを作成する。 コンテンッ記憶部 1 12はコンテンツ作成部 1 11により作成されたコンテンツを記憶する。
なお、 画像対応付け装置 1 a内に備えられているとして説明したハイライト表 示付き OHP画像作成部 1 16は、 コンテンツ作成部 1 11内に備えられるよう にしても良い。
また、 第 3図は、 画像対応付け 'コンテンツ作成装置 1のハードウェア構成の 一例を示した図である。 第 3図において、 画像対応付け ·コンテンツ作成装置 1 は、 ビデオ入力制御装置 1 1と、 C PU (Central Processing Unit) 12と、 メ モリ 13と、 画像用 HDD (Hard Disk Drive) 15と、 ファイル入出力装置 14 と、 プログラム HDD 16と、 コンテンツ HDD 1 7と、 対応付けテーブル (ビ デォー OHP—ポインタ位置対応付けテーブル) HDD 18と、 OHPファイル HDD 19と、 LAN(Local Aria Network)インタフェース 20と、 CD— RO Mドライブ 21と、 ハイライト表示付き OHP画像 HDD 22とを備えている。 本実施の形態において、 第 2図の機能構成図に示した各機能ブロックは、 第 3 図のプログラム HDD 16に記憶されたプログラム群が画像対応付け ·コンテン ッ作成装置 1の起動時にメモリ 13上に展開された状態を示しており、 C P U 1 2により実行される。 ただし、 第 2図の動画像入力部 101或いは OHPフアイ ル入力部 103は、 第 3図のビデオ入力制御装置 11或いはファィル入出力制御 装置 14と力 上記メモリ 13上に展開されたプログラム群と協働して機能する 。 また、 動画像記憶部 102は画像用 HDD 15により構成され、 OHPフアイ ル記憶部 104は OHPフアイル HD D 19により構成され、 対応付けテーブル 110は対応付けテーブル HDD 18により構成され、 コンテンツ記憶部 112 はコンテンツ HDD 17により構成されるものとする。 なお、 ハイライト表示付 き OHP画像 HDD 22は、 コンテンツとしてコンテンツ HDD 17内に設けら れても良い。
また、 上記プログラム群はプログラム HDD 16でなくとも、 例えば、 コンビ ユータにより読取り可能な媒体、 例えば、 CD— ROMや FD、 磁気ディスク、 DVDディスク、 光磁気ディスク、 I Cカード等の可搬型記憶媒体に記憶されて いてもよく、 また、 コンピュータプログラムを保持するデータベース、 或いは、 他のコンピュータ並びにそのデータベースや、 更に回線上の伝送媒体等からダゥ ンロ一ドしてメモリ 13上に展開され実行されるようにしてもよく、 プログラム 群のインストール形態は限定されない。 上述したように本実施の形態では、 CD 一 R OMドライブ 21が備えられており、 可搬型記憶媒体を読み取り可能として いる。 また、 LANインタフェース 20やファイル入出力装置 14により、 他の コンピュータゃデータベースから LAN等を介してプロダラム群を容易にダウン ロードできる構成となっている。
以下、 フローチャートを用いて、 画像対応付け装置 1 aの対応付け処理の流れ を詳細に説明する。 第 4図は、 対応付け処理全体の処理フローを示したフローチ ヤートである。 まず、 動画像記憶部 102からフレーム取得部 105が動画像の 最初のフレームの画像を抽出する (S 1000) 。 OHP領域抽出部 106が、 抽出されたフレーム画像内で OHPの画像が映る領域 (以下、 OHP領域画像と 呼称する) を探索して抽出する (S 1001) 。 OHP領域抽出処理についての 詳細を以下に示す。
第 5図は、 〇HP領域画像抽出処理の流れを示したフローチャートである。 ま ず、 OHP領域抽出部 106にフレーム画像のデータが入力される (S 1 100 ) 。 次に、 フレーム画像をニ値ィ匕して、 フレーム画像内のエッジ抽出を行う (S 1 101) 。 続いて、 抽出されたエッジに対してハフ変換を行い、 直線を抽出す る (S 1 102) 。 抽出された直線成分を統合して、 矩形作成する'(S 1 103 ) 。 この矩形から予め定められた所定のサイズより大きい矩形のみを抽出する ( S 1 104) 。 この抽出処理で矩形が抽出されない場合には (S 1 105、 NO ) 、 フレームの画像全体が OH P画像の領域であると判断し、 画像全体を抽出す る (S 1 107) 。 矩形が抽出された場合には (S 1105、 YES) 、 抽出さ れた中で最も大きな矩形を OHP領域画像として抽出する (S 1 106) 。
なお、 通常、 〇HPを用いた講義等を撮影した動画像においては、 OHPの画 像が最も大きな矩形となるのが一般的であるため、 S 1 106の処理でその領域 を抽出するようにしている。 '
OHP領域画像抽出後、 初期値として最大類似度に 0をセットする (第 4図、 S 1002) 。 続いて、 OHP取得部 107が OHP画像の最初のページを OH Pファイル記憶部 104から抽出する (S 1003) 。 ここで類似度算出部 10 8が、 S 1003で抽出された OHP画像の最初のページと、 S 1001で抽出 されたフレームの〇 HP領域の画像とを照合して、 類似度を計算する (S 100 4) 。 ここで、 類似度計算について、 図を用いて詳細に説明する。
第 6図は、 類似度計算の一例を示す類似度算出部 108の機能構成図である。 本手法では、 文字情報を用いて類似度を算出する。 また、 ここでは連続する 2文 字が同一であるか否かを照合して類似度を算出する。 図において、 類似度算出部 108は、 画像正規化部 130と、 フレーム文字抽出部 131と、 OHP文字抽 出部 132と、 文字照合部 133と、 照合結果加算部 134とからなる。 画像正 規化部 130は、 フレーム画像から抽出された OHP領域画像が OHP画像の方 向と一致するよう回転処理を実行して傾きを補正する。 また、 OHP画像とサイ ズが異なる場合、 拡大処理を実行して、 OHP画像と同一のサイズとなるよう補 正する。 なお、 このような正規ィ匕処理は、 第 5図の S 1 106での抽出の際に、 O HP領域抽出部 106が実行するようにしてもよく、 特に限定されるものでは ない。
フレーム文字抽出部 131は、 第 5図の S 1 106で抽出された OHP領域画 像から文字を認識して抽出する。 OHP文字抽出部 132は、 OHP取得部 10 7で取得したページの文字を抽出する。 なお、 本実施の形態では O HP画像の文 字情報は、 既に OHPファイル記憶部 104において 1ページ毎の画像ファイル と、 それに対応する文字情報を別々に記憶しているため、 文字認識処理を行う必 要なく、 〇HPファイル記憶部 104を参照するのみで文字を抽出できる。 文字 照合部 133は、 フレーム文字抽出部 131と OHP文字抽出部 132から抽出 された文字を照合する。 照合結果加算部 134は文字照合部 133にて照合され た結果を数値化して加算する。 加算した結果が類似度となる。
第 7図は、 上記類似度算出部 108により実行される類似度算出処理の流れを 示したフローチャートである。 まず、 フレーム取得部 105から OHP領域画像 を取得し (S 1300) 、 フレーム文字抽出部 131が文字認識処理を行う (S 1301) 。 この文字認識処理は公知の技術を用いて行われる。 第 8図はこの文 字認識処理の詳細を示したフローチャートである。 まず、 得られた O H P領域画 像を二値化し (S 1310) 、 領域識別を行う (S 131 1) 。 銃いて文字認識 を行い (S 131 2) 、 認識結果がテキスト出力される (S 1313) 。
文字認識処理後、 類似度の初期値を 0にセットする (第 7図、 S 1302) 。 次に基準文字としてフレーム文字抽出部 131による認識結果の最初の文字をセ ットする。 また、 OHP画像において該セットされた基準文字に対応する位置に ある文字とその隣に位置する文字を、 OHP文字抽出部 132により抽出する ( S 1303) 。 ここで、 文字照合部 133により、 フレーム文字抽出部 1 31に より'認識された文字列と、 OHP文字抽出部 132により抽出された文字列とを 比較し、 連続 2文字が同じであるか否かを照合する。 同じであれば (S 1304 、 YES) 、 照合結果加算部 134が類似度をィンクリメントする (S 1305 ) 。 同じでない場合には (S 1304, NO) 、 類似度はィンクリメントされな い。 続いて基準文字に隣の文字をセットし、 同様に照合を行う (S 1306) 。 S 1304から S 1306までの処理が文字認識処理結果の文字が終了するまで (S 1307、 YES) 繰り返される。 最終的には、 照合結果加算部 134によ り類似度が以下のように補正される (S 1308) 。 類似度 =類似度 ZOH P文字数 なお、 類似度算出は、 文字情報を用いるほかにも画像 (画素信号) 情報やレイ アウト情報 (図、 表、 文字列ブロック等の領域属性とその座標情報) を用いて行 つても良く、 あるいはこれらを併用するようにしても良い。
上述した類似度算出部 108は、 あるフレームの OHP領域画像について、 全 ての OHP画像との類似度を算出する。 具体的には、 第 4図において、 OHP画 像の最初のページの類似度が算出された後 (S 1004) 、 その類似度が最大類 似度 (最初の段階では 0) 以上であれば (S 1005、 YES) 、 最大類似度に 類似度をセットし、 その OHP画像のページ番号を記録する (S 1006) 。 こ の時点で OHP画像の全てのページの照合が終了していなければ (S 1007、 NO) 、 OHP画像の次ページを抽出し、 S 1004の類似度計算処理を繰り返 す。 こうして O HP画像全てのページの照合が終了すると (S 1007、 YES ) 、 次に、 後で抽出されるフレーム画像におけるレーザーボインタの位置を〇H Pの位置に対応付けるため、 各フレーム画像中の文字と OHP中の文字の対応付 けを行う (S 1008) 。 但し、 本実施の形態においては、 上述した類似度計算 のときに生成されている文字の対応付けを利用することができるので、 この処理 は省略することができる。 なお、 OHPの文字情報が用意されていない場合は、 類似度計算と別に文字の対応付けを求めることとなる。 例えば、 フレーム画像を 文字認識して、 文字コード列を獲得する。 これと別に OHP画像を文字認識して 同様に文字コ一ド列を獲得して、 2つの文字コ一ド列を上がら順番に一致させる 一致手法には、 公知の D Pマツチングなどを利用する。
次に、 フレーム画像からのボインタ領域を検出 (抽出) する (S 1009) このポインタ領域の抽出は、 第 2図に示したポインタ領域検出部 1 14により行 われる。 なお、 本発明のポインタ領域検出装置は、 これから説明する処理をコン ピュータとソフトウェアとにより実行するポインタ領域検出部により構成されて いるものである。 ポインタ領域検出部 114における処理の一つは、 まず、 フレ —ム画像を取得すると (S 1401) 、 フレーム画像中の RGB値から例えば下 のような特定の条件式を満足する点の中で、 3 R— 2 G— Bが最大の点を求める ことによりボインタ領域を抽出する。 R≥ 230 力つ 3R-2G-B≥ 155 (条件式) 他の一つは、 フレーム画像から第 9図に示す処理を行って、 第 13図に示すよ うなポインタ領域の重心 Gを求める。 まず、 フレーム画像を取得し (S 140 1) 、 次式 (1) を満足する点を抽出して 2値画像を作成する (S 1402) 。
R≥THR 且つ (THH1 色相、 又は、 色相≤THH2) (1) 次にラベリング処理を行!/ヽ外接矩形を求める ( S 1403 ) 。
上記ステップで求まつた矩形の周囲、 あるいはそれから一定距離にあるものを 同じグループとし、 複数の候補領域を抽出する (S 1404) 。
抽出された全ての候補領域について、 以下のステップ S 1406〜ステップ S 1409を行う (S 1405、 S 1412) 。
即ち、 各候補領域に対して、 まず色情報でのポインタ領域の検証を行い (S 1 406) 、 次に形状でのボインタ領域の検証を行う (S 1407) 。 そして双方 の検証結果が認められると、 その領域をポインタ領域として記録する (S 140 8) 。 以上の処理が全ての候補領域に行われると (S 1409, YES) 。 記録 されたポインタ領域の 1つが選択されて (S 1410) 、 〇 HP画像中の座標計 算が行われる (S 141 1) 。 なお、 本実施の形態において、 ポインタ領域の検 証は色情報と形状情報の両方を用いて行うようにしたが、 いずれか一方のみを用 いても構わない。 両方を用いると精度が高められるが計算処理に時間を要する。 一方のみを用いた場合は精度が落ちるが計算処理の時間短縮が図れる。
ここで、 上記色情報を用いたポインタ領域の検証処理について第 10図を用い て説明する。 これは背景色とレーザポインタ領域候補の平均色を求め、 背景色と 、 この背景色に対するレーザーボインタ領域候補の平均色との組合せが、 予め求 められたそれらの組み合わせのいずれかに該当する力否かを判定することでレー ザ一ボインタ領域である力否かを判定する。
まず、 S 1404でグループィ匕されたグループ領域の座標を取得する (S 15 01) 。 次に背景色を求める第 1処理として、 カラー画像全体からグループ領域 枠を拡大 (グループ領域を周囲に規定画素数分だけ拡大) して切り出しカラー画 像を作成する (S 1502) し、 色ラベリングを行う (S 1503) 。 グループ 領域内での 2値画像で得られたパターン以外で最大面積のラベル領域を背景とし て抽出し、 その平均色を求める (S 1504) 。 次に、 レーザーポインタ領域を 仮定した場合のその領域の平均色を求める第 2処理として、 グループ領域内の 2 値画像部分に相当するカラー画像で平均色を作成する (S 1505) 。 次に、 グ ループ領域内で平均色と色差が一定しきい値以内の画素をボインタ領域として抽 出し、 その平均色を求める (S 1506) 。 次に、 第 1処理と第 2処理を合わせ て、 第 11図に示す背景色毎のレーザーポインタ色分布表に画像から抽出したポ インタ領域の色分布が一致するか否力碑 IJ断し (S 1507) 、 一致する場合はレ 一ザポインタ領域と判定する (S 1508) o 一方、 一致しない場合はレーザー ポインタ領域であると判定しない (S 1509) 。
次に、 上記形状情報を用いたポインタ領域の検証処理について第 12図を用い て説明する。 まず、 グループ領域の座標を取得し (S 1601) 、 S 1404で 得られたグループ領域を周囲に規定画素数分だけ拡大したものを新たなグループ 領域として、 そのグループ内の 2値画像部分に相当するカラー画象の画素で平均 色を作成する (S 1602) 。
次に、 S 1402で抽出された 2値画像のパターンの内、 グループ領域内にあ るものに注目し、 このパターンの座標と同じ座標をもつカラー画像 (フレーム画 像) 上の点の平均色 (Rm, Gm, Bm) を求める。 そして、 同じグループ領域内 で平均色と色差が一定しきい値以内の画素をポインタパターンとして抽出する ( S 1603) 。 即ち、 グループ領域内で平均色に近い色のパターンを抽出する。 例えば、 次式 (2) を満たす画素を全て抽出する。
I Ri-Rm I + I Gi-Gm | + | Bi— Bm | <Th_dist (2)
ここで、 (Ri, Gi, Bi) は、 グループ領域内の画素 iの RGB値 Th_dist は予め決めた固定しきい値である。
次に、 抽出画素を全て内包する楕円包絡線を求める。 即ち、 パターンの包絡線に 近い楕円を求める (S 1604)。 例えば、 レーザーボインタをスクリーンに照射して、 それをビデオ力メラで撮 影した画像では、 レーザーポインタ (あるいはカメラの) 動きによって、 第 1 3 図及び第 1 4図のようなレーザーポインタパターンが観測される。 第 1 3図は、 動きが速いときであり、 このようになるのは、 ビデオ撮影時にインターレース撮 影をしているため、 インターレースのスキャン時間の間にレーザーポインタが移 動してしまうためである。 第 1 4図は、 動きが遅いときであり、 欠損部分はノィ ズで正しくレーザーポインタが抽出できなかった箇所である。 このような場合に、 第 1 3図や第 1 4図に示す包絡線を形成する楕円曲線を求める。
求め方は以下 a ) 〜d ) で示される。
a ) グループ領域内の黒画素の座標をべクトルとみなして、 全黒画素のベタトル から分散 ·共分散行列を作成する。
b ) 分散 ·共分散行列から固有値 ·固有べクトルを求める。
c ) 黒画素の重心を求め、 上位 2つの寄与度の固有べクトルで決まる方向を求め、 重心からこの 2方向の直交軸を決める。 各軸上の中心 =重心から標準偏差の 4倍 の距離の点 (中心から距離 a、 b ) を求め、 この 4点を通る楕円を求める。
d ) 楕円の軸の切片 a , bを少しずつ同じ比率だけ小さくしていき、 最初に黒画 素に接したところで停止する。
5 ) 楕円曲線内で、 奇数ラスターと偶数ラスターを別に調べ、 どちらかのラスタ 一において、 S 1 6 0 3で求めた黒画素がある比率をラスター上の総画素数と比 較し ( S 1 6 0 5 ) 、 それが一定比率以上であればレーザーポィンタであると判 定し ( S 1 6 0 6 ) 、 それ以外はレーザーボインタでないと判定する ( S 1 6 0
7 ) 。
次に第 9図に示した S 1 4 1 0の記録ボインタ領域から 1つを選択する処理に ついて説明する。
1つのフレーム画像から複数のボインタ領域が記録されることがある。 講演者 が指し示したのは、 1力所であるので、 この中から 1つを選択する必要がある。 複数の候補領域の中で、 上の領域の検証処理の中の 「グループ領域内で平均色と 色差が一定しきい値以内の画素をポインタ領域として抽出」 (S 1 5 0 6 ) で求 めた画素数が最も多いものを正しいボインタ領域であるとして選択するものとす る。
ポインタ領域が抽出されると、 次に第 4図における OHP画像上の位置抽出処 理が行われる (S 1010) 。
フレーム画像中のレーザーポィンタ位置が抽出されたら、 e_Learningの表示 のために OHP画像中の対応する座標を推定して求める。 これには、 以下の第 1 5図 (a) , 第 15図 (b) で示すような方法を用いる。
即ち、 第 15図 (a) に示すフレーム画像において、 a) フレーム画像中のポ インタの位置 31を求める。 次に、 b) フレーム画像中でポインタ位置に近い 1 つ、 あるいは複数の対応付けがされている文字 32を選択し、 ポインタ 31とそ れらの文字 32との相対的な位置関係を計算し記録する。 次に、 c) このフレー ム画像に対応付けられている、 第 15図 (b) に示す OHPスライ ド (PPTス ライド) を求め、 その内部の対応付いている文字の中から、 b) で記録されてい る文字 33を選択する。 そして、 d) それらの文字から相対的位置関係を用いて OHPスライ ドのボインタ位置 34を推定する。
この結果、 フレーム毎の対応 OHP番号、 OHPスライド中のポインタ座標テ 一ブル (表 1 : フレーム番号、 OHP番号、 OHP中のポインタ座標対応表) が 生成される (S 101 1 :第 4図) 。
(表 1)
フレーム番号 0 0HP番号 0、 (—1、 一 1)
フレーム番号 1 0HP番号 0、 (― 1、 -1)
フレーム番号 2 0HP番号 0、 (60、 51)
フレーム番号 3 0HP番号 1、 (75、 44)
フレーム番号 4 0HP番号 1、 (78、 50)
フレーム番号 5 0HP番号 5、 (81、 51) フレーム番号 N- 1: 0HP番号 10、 (34、 96)
フレーム番号 N : 0HP番号 10、 (一 1、 一 1) 表 1において、 座標値は、 OHP画像の絶対座標だけでなく、 表示画像の縦横 長の。 /0表示でもよレ、。 また、 座標値に示される一 1は、 ボインタが照射されてな いことを示している。
第 4図に示した対応付け処理が終了すると、 コンテンツ作成装置 1 により、 ポインティング情報対応 e-Learning用コンテンツが作成される。 以下、 WBT (Web based Training) 表示用画像作成処理として説明する。
このコンテンツ作成処理においては、 表 2の内容を表示する WBTコンテンツ 'である HTMLファイルを作成する。 以下、 その一例として、 最も簡単な例を第 16図を用いて説明する。
OHP画像中のポインタの座標を元に、 OHP画像の中でポインタ 41がある 付近をハイライト表示させた画像を生成する。 具体的には、 OHPの該当スライ ドで文字列やテキストボックス、 図、 表などの領域 42を OHPスライドである P PTファイルから直接求め (または、 OHPの画像をレイァゥト解析して、 ポ インタ付近の領域を求め) 、 その領域に赤などの目立つ色で枠線を付けた画像を 作成する。 この画像名は〇 H P番号名—ィンデックス番号 (OHP番号内で 1か らインクリメントされる番号) とする。 伹し、 座標値が一 1のものはハイライト 表示を行わないで O H P番号名だけの画像名とする。
表 1を上から順に走査して生成されるハイライト領域の座標が 1つ前のものと 完全に一致するものは、 同じ画像名を付ける。 これを上から順番に繰り返し処理 していくと、 以下のような表 (表 2 : フレーム番号、 OHP番号、 OHP中のポ インタ座標、 画像名対応表) が作成できる。
(表 2)
フレーム番号 0 0HP番号 0、 (_ 1、 一 1) 、 画像名 =0
フレーム番号 1 0HP番号 0、 (—1、 一 1) 、 画像名 = 0
フレーム番号 2 0HP番号 0、 (60、 51) 、 画像名 = 0 1
フレーム番号 3 0HP番号 1、 ( 75、 44 ) 、 画像名 = 1_1
フレーム番号 4 0HP番号 1、 ( 78、 50 ) 、 画像名 =1_1
フレーム番号 5 0HP番号 5、 ( 81、 51 ) 、 画像名 =5—1 フレーム番号 N- 1 : OHP番号 10、 (34、 96) 、 画像名 =10— 1
フレーム番号 N : 0HP番号 10、 (_ 1、 _ 1) 、 画像名 = 10 表 2を上から走査していき、 連続する 2つのエントリ (行) で、 OHP番号と 画像名が完全に一致する場合に、 2つを統合して、 以下のような〇HP番号をキ 一とする表 3 (表 3 : WBTコンテンツ) を作成する。
(表 3)
0HP番号 0、 フレーム番号 0〜1、 画像名 =0
0HP番号 0、 フレーム番号 2〜2、 画像名 =0—1
0HP番号 1、 フレーム番号 3〜4、 画像名 =1_1
0HP番号 5、 フレーム番号 5〜 5、 画像名 =5— 1
0HP番号 10、 フレーム番号 N- 1〜N- 1、 画像名 = 10— 1
0HP番号 10、 フレーム番号 N 〜N 、 画像名 =10 この表が e- Learning用の WB Tコンテンツの HTMLファイルのコア部分で ある。 すなわち、 フレーム区間で示される間だけ、 それに対応するハイライト表 示された画像を表示することで、 講義道がの内容と同期したレーザーボインタで の指示情報を含んだ講義〇H Pの詳細な画像を表示することができる。
上記の方法の他にも、 フレーム毎の OHP画像上のポィンタの座標値が抽出さ れているので、 それをそのまま、 表示することも可能である。 例えば、 ある OH P番号の画像を表 3で OHP番号が同じ区間だけ表示して、 その上にオーバーラ ップして、 各フレーム毎の座標値をそのまま大きな矢印や赤丸で表示してもよい。 第 17図は、 上述したように作成したコンテンツを配信するためのコンテンッ 配信サーバとそれを受信するクライアントを示すプロック図である。
コンテンッ配信サーバには、 ビデオ一OH P—ボインタ位置対応テーブル記憶 部 51と、 OHPフアイル記憶部 52と、 ビデオ画像記憶部 53と、 ビデオ一 O H P対応テーブル記憶部 58と、 ハイライト表示付 OH P画像記憶部 57とが記 憶部として設けられ、 コンテンツ配信要求受信部 54と配信要求コンテンツ送信 部 5 5と、 これらを制御するコンテンッ配信制御部 5 6とが設けられている。 一方、 クライアント 6 0は、 コンテンツ配信要求送信部 6 1と、 コンテンツ受 信部 6 2と、 ビデオ再生部 6 4と、 ビデオ対応 O H P /ボインタ位置取得部 6 3 と、 表示部 6 5と、 これらを制御する制御部 6 6が設けられている。
以下、 これらの動作について説明する。
1 ) ユーザは、 クライアントから指定したコンテンツの表示を指示すると、 クラ イアントがサーバに対して指定コンテンツの配信を要求する。
2 ) コンテンツサーバは、 記憶装置上の指定のコンテンツを検索し、 該当するコ ンテンッを読み取り、 それをクライアントに配信する。 このコンテンツにはビデ ォ画像、 それに同期付けられた O H Pファイル、 及び O H Pファイル内のポイン- タ位置情報が含まれる。 この OH Pファイルはハイライト表示されたものを使用 することができるし、 そうでないものを使用することもできる。
3 ) クライアントは、 配信されたコンテンツの中からビデオデータを再生すると 共に、 ビデオフレームに同期した O H P (スライド) と〇H P内のポィンティン グ位置情報を表示する。
以上に詳述した本発明の実施の形態によれば、 以下のような効果を奏する。 従来の e - learning のコンテンツ作成用のォーサリングシステムでは、 O H Pを 説明する動画像と、 そこに映し出されてレ、る O H P画像表示の時間的な同期付け を自動的に行い、 さらに、 講師がポインティングツールのレーザーポインタを使 用した場合に、 説明中の OH Pの中でどこを話しているのかを自動的に示すこと はできなかった。 これら OH P画像と動画像との同期付けを行い、 さらに講師が 指し示したボインタ情報を表現するためには、 人が膨大な時間を掛けてこれを再 現するコンテンツを作成する必要があつた。 本実施の形態によれば、 OH Pと動 画像との同期付けを自動的に行うことができると共に、 ボインタ情報を自動的に 抽出、 再現して e- Learning用のコンテンッ開発を自動化できる。 産業上の利用の可能性
以上に詳述したように、 本発明によれば、 特殊な装置を必要とせず、 パソコン、 プロジェクタの投影装置と、 レーザーポインタ、 ビデオカメラという一般的な装 置だけで撮影したビデオからレーザーボインタ位置を検出することができ、 もつ て、 低コストに実現できるポインタ領域 (位置) 検出装置、 ポインタ領域検出方 法、 並びにポインタ領域検出プログラムを提供することができる。 また、 本発明 によれば、 例えば講義などで使用された O H Pファイル (元文書) と、 講義など を撮影した動画像とを対応付けると共に、 講義において指示されている O H P画 像の部分を OH Pフアイル上に明確に表示できるようにした画像対応付け装置及 ぴ画像対応付け方法並びに画像対応付けプログラムを提供することができるとと もに、 このように対応付けされた動画像と O H Pファイルとをコンテンツとして 配信するコンテンッ配信サーバ及びそのようなコンテンッ配信方法を提供するこ とができるという効果を奏する。

Claims

請 求 の 範 囲
1 . OH P画像の所定箇所を指示している光学ポインタの領域を該 OH P画像が 撮像されたビデオフレームの画像において検出するボインタ領域検出装置であつ て、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 部と、
前記 R G B取得部により取得された R G B値のそれぞれを変数とする所定の式 を満たす画素領域をポインタ領域候補として抽出するポインタ領域候補抽出部と、 前記ボインタ領域抽出部により抽出されたボインタ領域候補のうち、 所定の評 価値が最も高くなる画素領域をボインタ領域と判定するボインタ領域判定部と を備えてなるボインタ領域検出装置。
2 . 請求の範囲第 1項に記載のボインタ領域検出装置において、
前記所定の式は R≥ 2 3 0、 且つ、 3 R— 2 G— B≥ 1 5 5であり、 前記評価 値は、 3 R— 2 G— B で与えられることを特徴とするポインタ領域検出装置。
3 . O H P画像の所定箇所を指示している光学ボインタの領域を該 O H P画像が 撮像されたビデオフレームの画像において検出するボインタ領域検出装置であつ て、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 部と、
前記 R G B取得部により取得された R G B値及び色相における所定の式を満た すか否かで 2値画像を作成する 2値画像作成部と、
前記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領域候 補抽出部と、
ビデオフレームの画像における前記複数の領域候補のそれぞれが含まれる各領 域にお!/、て前記領域候補を除く部分を用レ、て背景色を求める背景色演算部と、 ビデオフレームの画像における前記複数の領域候補のそれぞれが含まれる各領 域にぉレ、て前記領域候捕の部分を用いてボインタ領域候補の平均色を求めるボイ ンタ領域候ネ甬平均色演算部と、
前記背景色に対するボインタ領域候補の平均色の色分布に基づいて前記ボイン タ領域候補がボインタ領域である力否かを判定する、 色情報を用いたボインタ領 域判定部と
を備えてなるポインタ領域検出装置。
4 . 請求の範囲第 3項に記載のボインタ領域検出装置において、
前記領域候補抽出部は、 前記ラベリングにより得られたパターンについて外形 矩形を求め、 さらに外形矩形の周囲及びそれから一定距離内にある外形矩形を一 つのグループとして複数のグループを作成して各グループを前記領域候補とする ことを特徴とするポインタ領域検出装置。
5 . 請求の範囲第 4項に記載のボインタ領域検出装置において、
前記領域候補抽出部は、 さらに前記各グループを所定画素数だけ周囲に拡大し てなる領域を前記領域候補とすることを特徴とするボインタ領域検出装置。
6 . 請求の範囲第 4項に記載のボインタ領域検出装置において、
前記背景色演算部は、 前記領域候補抽出部により抽出された領域における前記 ビデオ画像を色ラベリングし、 前記パターンの領域を除いた部分で最大面積を有 するラベル領域を背景領域として、 該背景領域について平均色を求めることを特 徴とするポインタ領域検出装置。
7 . 請求の範囲第 3項に記載のボインタ領域検出装置において、
前記ボインタ領域候補平均色演算部は、 ビデオフレームの画像における前記複 数の領域候補のそれぞれが含まれる各領域において平均色を求めると共に、 前記 領域候補内で平均色と一定のしきレヽ値以内の画素をポインタ領域候捕として抽出 して、 該ポィンタ領域候補における平均色を求めてボインタ領域候補の平均色と することを特徴とするボインタ領域検出装置。
8 . 請求の範囲第 3項に記載のボインタ領域検出装置にぉレ、て、 前記ボインタ領域判定部は、 前記背景色演算部により求められた背景色に対す る前記ポインタ領域平均色演算部により得られた平均色の色分布と、 予め記憶さ れた前記背景色に対するレーザーボインタの色分布とがー致すると認められるか 否かにより前記ボインタ領域候補がボインタ領域である力否かを判定することを 特徴とするポインタ領域検出装置。
9 . 請求の範囲第 8項に記載のポインタ領域検出装置において、
各背景色毎にレーザーボインタの色分布テーブルを備えていることを特徴とす るポインタ領域検出装置。
1 0 . OH P画像の所定箇所を指示している光学ポインタの領域を該 O H P画像 が撮像されたビデオフレームの画像において検出するボインタ領域検出装置であ つて、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 部と、
前記 R G B取得部により取得された R G B値及ぴ色相における所定の式を満た すか否かで 2値画像を作成する 2値画像作成部と、
前記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領域候 補抽出部と、
ビデオフレームの画像において、 前記複数の領域候補のそれぞれが含まれる各 領域における平均色を求める平均色演算部と、
前記平均色を用いて前記各領域候捕の領域内でポインタパターンの候補を抽出 するポインタパターン候補抽出部と、
前記ポインタパターンの包絡線を用いて楕円形状を求める楕円形状演算部と、 前記楕円形状の面積と前記ポインタパターンを形成する画素の占める面積との 比率に基づいて前記ボインタパターン候補がレーザボインタ領域である力否かを 判定する、 形状を用いたポインタ領域判定部と を備えてなるポインタ領域検出装置。
1 1 . 請求の範囲第 1 0項に記載のポインタ領域検出装置において、
前記領域候補抽出部は、 前記ラベリングにより得られたパターンについて外形 矩形を求め、 さらに外形矩形の周囲及びそれから一定距離内にある外形矩形を一 つのグループとして複数のグループを作成して各グループを前記領域候補とする ことを特徴とするボインタ領域検出装置。
1 2 . 請求の範囲第 1 0項に記載のポインタ領域検出装置において、
前記領域候補抽出部は、 さらに前記各グループを所定画素数だけ周囲に拡大し てなる領域を前記領域候補とすることを特徴とするボインタ領域検出装置。
1 3 . 請求の範囲第 1 0項に記載のボインタ領域検出装置において、
前記ボインタパターン候補抽出部は、 前記平均色と一定のしきい値内にある色 を有する画素を含んで前記ボインタパターンとすることを特徴とするポインタ領 域検出装置。
1 4 . 請求の範囲第 1 0項に記載のポインタ領域検出装置において、
前記ポインタ領域判定部は、 前記楕円形状内で、 奇数ラスターと偶数ラスター を別に調べ、 どちらかのラスターで求めた前記ボインタパターンを形成する画素 がある比率をラスタ一上の総画素数と比較し、 それが一定比率以上であればレー ザ一ボインタであると判定することを特徴とするボインタ領域検出装置。
1 5 . O H P画像の所定箇所を指示している光学ポインタの領域を該 OH P画像 が撮像されたビデオフレームの画像において検出するボインタ領域検出方法であ つて、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 前記 R G B取得部により取得された R G B値のそれぞれを変数とする所定の式 を満たす画素領域をボインタ領域候補として抽出するボインタ領域候補抽出ステ ップと、
前記ボインタ領域抽出部により抽出されたボインタ領域候補のうち、 所定の評 価値が最も高くなる画素領域をポインタ領域と判定するポインタ領域判定ステッ プと
を備えてなるボインタ領域検出方法。
1 6 . O H P画像の所定箇所を指示している光学ポインタの領域を該 OH P画像 が撮像されたビデオフレームの画像において検出するボインタ領域検出方法であ つて、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 前記 R G B取得部により取得された R G B値及ぴ色相における所定の式を満た すか否かで 2値画像を作成する 2値画像作成ステツプと、
前記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領域候 補抽出ステップと、
ビデオフレームの画像における前記複数の領域候補のそれぞれが含まれる各領 域において前記領域候補を除く部分を用いて背景色を求める背景色演算ステップ と、
ビデオフレームの画像における前記複数の領域候補のそれぞれが含まれる各領 域にぉレ、て前記領域候補の部分を用いてボインタ領域候補の平均色を求めるボイ ンタ領域候補平均色演算ステップと、
前記背景色に対するボインタ領域候補の平均色の色分布に基づいて前記ボイン タ領域候補がボインタ領域である力否かを判定する色情報を用いたボインタ領域 判定ステップと
を備えてなるポインタ領域検出方法。
1 7 . O H P画像の所定箇所を指示している光学ポインタの領域を該 OH P画像 が撮像されたビデオフレームの画像において検出するポインタ領域検出方法であ つて、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 前記 R G B取得部により取得された R G B値及ぴ色相における所定の式を満た すか否かで 2値画像を作成する 2値画像作成ステツプと、
前記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領域候 補抽出ステップと、
ビデオフレームの画像において、 前記複数の領域候補のそれぞれが含まれる各 領域における平均色を求める平均色演算ステップと、
前記平均色を用いて前記各領域候補の領域内でボインタパターンの候補を抽出 するポインタパターン候補抽出ステップと、
前記ポインタパターンの包絡線を用いて楕円形状を求める楕円形状演算ステツ プと、
前記楕円形状の面積と前記ボインタパターンを形成する画素の占める面積との 比率に基づいて前記ボインタパターン候補がレーザボインタ領域である力否かを 判定する形状情報を用いたポインタ領域判定ステップと
を備えてなるボインタ領域検出方法。
1 8 . O H P画像の所定箇所を指示している光学ポインタの領域を該 O H P画像 が撮像されたビデオフレームの画像において検出する処理をコンピュータに実行 させるボインタ領域検出プログラムであって、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 前記 R G B取得部により取得された R G B値のそれぞれを変数とする所定の式 を満たす画素領域をボインタ領域候補として抽出するボインタ領域候補抽出ステ ップと、
前記ボインタ領域抽出部により抽出されたボインタ領域候補のうち、 所定の評 価値が最も高くなる画素領域をボインタ領域と判定するボインタ領域判定ステッ プと をコンピュータに実行させるポインタ領域検出プログラム。
1 9 . O H P画像の所定箇所を指示している光学ポインタの領域を該 O H P画像 が撮像されたビデオフレームの画像において検出する処理をコンピュータに実行 させるポインタ領域検出プログラムであって、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 前記 R G B取得部により取得された R G B値及び色相における所定の式を満た すか否かで 2値画像を作成する 2値画像作成ステツプと、
前記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領域候 補抽出ステップと、
ビデオフレームの画像における前記複数の領域候補のそれぞれが含まれる各領 域において前記領域候補を除く部分を用いて背景色を求める背景色演算ステップ と、
ビデオフレームの画像における前記複数の領域候補のそれぞれが含まれる各領 域において前記領域候補の部分を用いてポインタ領域候補の平均色を求めるボイ ンタ領域候補平均色演算ステップと、
前記背景色に対するボインタ領域候補の平均色の色分布に基づいて前記ボイン タ領域候補がボインタ領域である力否かを判定する色情報を用いたボインタ領域 判定ステップと
をコンピュータに実行させるポインタ領域検出プログラム。
2 0 . O H P画像の所定箇所を指示している光学ボインタの領域を該〇 H P画像 が撮像されたビデオフレームの画像にぉレ、て検出する処理をコンピュータに実行 させるポインタ領域検出プログラムであって、
ビデオフレームの画像の各画素領域における R G B値を取得する R G B値取得 前記 R G B取得部により取得された R G B値及び色相における所定の式を満た すか否かで 2値画像を作成する 2値画像作成二 前記 2値画像において、 ラベリングを用いて複数の領域候補を抽出する領域候 補抽出ステップと、
ビデオフレームの画像において、 前記複数の領域候捕のそれぞれが含まれる各 領域における平均色を求める平均色演算ステップと、
前記平均色を用いて前記各領域候補の領域内でポインタパターンの候補を抽出 するポインタパターン候ネ甫抽出ステップと、
前記ポインタパターンの包絡線を用いて楕円形状を求める楕円形状演算ステツ プと、
前記楕円形状の面積と前記ポインタパターンを形成する画素の占める面積との 比率に基づいて前記ポィンタパターン候補がレーザポィンタ領域であるか否かを 判定する形状情報を用いたボインタ領域判定ステップと
をコンピュータに実行させるポインタ領域検出プログラム。
2 1 . OH P画像の所定箇所を指示している光学ボインタの領域を該 O H P画像 が撮像されたビデオフレームの画像において検出するボインタ領域検出部と、 ビデオフレームの画像中に撮像されている O H P画像と前記 O H P画像の元文 書である O H Pファイルとを対応付ける画像対応付け部と、
前記ボインタ領域検出部により検出された光学ボインタの領域を前記画像対応 付け部により対応付けられた O H Pファイルの領域に対応付けるボインタ領域対 応付け部と
を備えてなる画像対応付け装置。
2 2 . 請求の範囲第 2 1項に記載の画像対応付け装置において、
前記ボインタ領域対応付け部は、 前記ボインタ領域検出部により検出された領 域に関連する領域における〇 H P画像中の文字情報と、 前記〇 H Pフアイルの文 字情報とに基づいて、 前記ポインタ領域検出部により検出された光学ポインタの 領域を前記ビデオフレームの画像中に撮像されている〇 H P画像の元文書である O H Pファイルの領域に対応付けることを特徴とする画像対応付け装置。
2 3 . 請求の範囲第 2 1項に記載の画像対応付け装置において、 前記画像対応付け部は、 ビデオフレームの番号と O H Pファイルの頁番号とを 対応付け、 前記ポインタ領域対応付け部は、 前記ポインタ領域検出部により検出 された光学ボインタの領域を前記 O H Pフアイルにおける座標として対応付ける ことを特徵とする画像対応付け装置。
2 4 . 請求の範囲第 2 1項に記載の画像対応付け装置において、
前記ボインタ領域対応付け部は前記 O H Pファイルにおける前記ボインタ領域 と関連する領域をハイライト表示させるように対応付けることを特徴とする画像 対応付け装置。
2 5 . OH P画像の所定箇所を指示している光学ポインタの領域を該 OH P画像 が撮像されたビデオフレームの画像において検出するポインタ領域検出ステップ と、
ビデオフレームの画像中に撮像されている O H P画像と前記 O H P画像の元文 書である O H Pファイルとを対応付ける画像対応付けステップと、
前記ボインタ領域検出部により検出された光学ボインタの領域を前記画像対応 付け部により対応付けられた O H Pファイルの領域に対応付けるボインタ領域対 応付けステップと
を備えてなる画像対応付け方法。
2 6 . ビデオフレームとビデオフレームの画像に撮像されている〇 H P画像に対 応する O H Pファイルとを対応付ける処理をコンピュータに実行させる画像対応 付けプログラムであって、
OH P画像の所定箇所を指示している光学ボインタの領域を該 O H P画像が撮 像されたビデオフレームの画像にぉ 、て検出するボインタ領域検出ステップと、 前記ビデオフレームの画像中に撮像されている O H P画像と前記 O H P画像の 元文書である OH Pファイルとを対応付ける画像対応付けステップと、
前記ボインタ領域検出部により検出された光学ボインタの領域を前記画像対応 付け部により対応付けられた O H Pフアイルの領域に対応付けるボインタ領域対 応付けステップと
をコンピュータに実行させる画像対応付けプログラム。
2 7 . ビデオ画像を記憶するビデオ画像記憶部と、
該ビデオ画像に撮像されている O H P画像の元文書である〇 H Pフアイルを記 憶した OH Pフアイル記憶部と、
前記ビデオ画像のフレ一ム番号と、 前記ビデオ画像に撮像されている O H P画 像に対応する OH Pファイルの頁番号とを対応付けると共に、 前記ビデオ画像に 撮像されている O H P画像において示される光学ポインタの領域を前記 O H Pフ ァィルの領域に対応付ける対応付け情報を記憶した対応付け情報記憶部と、 前記ビデオフレームの画像に対応付けられた O H Pフアイル画像と前記 O H P ファイルにおける光学ボインタ領域の情報とを送信するための送信部と
を備えてなるコンテンッ配信サーバ。
2 8 . 請求の範囲第 2 7項に記載のコンテンツ配信サーバと該サーバに接続され たクライアントとの間でコンテンッ配信を行うコンテンッ配信方法であって、 クライアントがコンテンッ配信サーバに対して指定コンテンッの配信を要求す るコンテンッ配信要求ステツプと、
前記要求に対し、 コンテンツ配信サーバは、 各記憶部から要求に係るコンテン ッを検索し、 該当するビデオ画像、 該ビデオ画像に対応付けられた O H Pフアイ ル、 及び O H Pファイル内のポインタ位置情報を送信するコンテンツ送信ステツ プと、
クライアントにお!/、て、 配信されたコンテンツの中からビデオデータを再生す ると共に、 ビデオフレームに同期した O H Pファイル画像と O H Pファイル画像 内のポインティング位置情報を表示する表示ステップと
を備えてなるコンテンッ配信方法。
PCT/JP2003/003069 2003-03-14 2003-03-14 ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法 WO2004081783A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2003/003069 WO2004081783A1 (ja) 2003-03-14 2003-03-14 ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法
JP2004569359A JP4040046B2 (ja) 2003-03-14 2003-03-14 ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法
US11/045,112 US7341352B2 (en) 2003-03-14 2005-01-31 Apparatus, method and program for detecting a pointer region, apparatus, method and program for associating images, content-distributing server, and content-distributing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/003069 WO2004081783A1 (ja) 2003-03-14 2003-03-14 ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/045,112 Continuation US7341352B2 (en) 2003-03-14 2005-01-31 Apparatus, method and program for detecting a pointer region, apparatus, method and program for associating images, content-distributing server, and content-distributing method

Publications (1)

Publication Number Publication Date
WO2004081783A1 true WO2004081783A1 (ja) 2004-09-23

Family

ID=32983468

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/003069 WO2004081783A1 (ja) 2003-03-14 2003-03-14 ポインタ領域検出装置、方法及びプログラム、画像の対応付け装置、方法及びプログラム、並びにコンテンツ配信サーバ、コンテンツ配信方法

Country Status (3)

Country Link
US (1) US7341352B2 (ja)
JP (1) JP4040046B2 (ja)
WO (1) WO2004081783A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026262A (ja) * 2007-07-24 2009-02-05 Fuji Xerox Co Ltd 表示画像取得装置、表示画像取得プログラム
JP2010086193A (ja) * 2008-09-30 2010-04-15 Saxa Inc プレゼンテーション資料配信システム、及びプレゼンテーション資料上の指示位置データの配信システム
JP2011118533A (ja) * 2009-12-01 2011-06-16 Tokyo Denki Univ タッチ位置入力装置及びタッチ位置入力方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4817289B2 (ja) * 2005-09-29 2011-11-16 富士通株式会社 穴埋めテスト問題作成プログラム、方法及び装置
JP2008009572A (ja) * 2006-06-27 2008-01-17 Fuji Xerox Co Ltd ドキュメント処理システム、ドキュメント処理方法及びプログラム
US8396321B1 (en) * 2007-04-25 2013-03-12 Marvell International Ltd. Method and apparatus for processing image data from a primary sensor and a secondary sensor
JP4924228B2 (ja) * 2007-06-19 2012-04-25 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US20100276962A1 (en) * 2009-04-29 2010-11-04 Gm Global Technology Operations, Inc. Active face shade detection in auto sun-shade system
JP5267364B2 (ja) * 2009-07-10 2013-08-21 富士ゼロックス株式会社 画像処理装置およびプログラム
JP5598232B2 (ja) 2010-10-04 2014-10-01 ソニー株式会社 情報処理装置、情報処理システムおよび情報処理方法
CN103092432B (zh) * 2011-11-08 2016-08-03 深圳市中科睿成智能科技有限公司 人机交互操作指令的触发控制方法和系统及激光发射装置
KR101608869B1 (ko) 2012-09-07 2016-04-04 삼성전자주식회사 대상체의 분할 영상 또는 의료 영상에 가상 자를 표시하는 방법 및 의료 영상 획득 장치, 및 가상 자가 표시된 분할 영상 또는 의료 영상을 디스플레이하는 방법 및 장치
JP6232906B2 (ja) * 2013-10-09 2017-11-22 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP6375660B2 (ja) * 2014-01-21 2018-08-22 セイコーエプソン株式会社 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法
CN108682034B (zh) * 2018-04-18 2021-12-14 淮北微立淘科技有限公司 一种基于安卓系统的智能手表实体指针的确位方法
CN108805888B (zh) * 2018-04-18 2021-12-28 上海电悦科技有限公司 一种确定智能手表表面实体指针位置的系统
CN109446916A (zh) * 2018-09-29 2019-03-08 南京理工大学 基于巡检机器人的放电计数器识别方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339471A (ja) * 1999-05-31 2000-12-08 Matsushita Electric Ind Co Ltd 画像抽出方法およびその装置
JP2001209361A (ja) * 2000-01-27 2001-08-03 Matsushita Electric Ind Co Ltd マルチメディア表示装置
JP2001307107A (ja) * 2000-04-21 2001-11-02 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2001325069A (ja) * 2000-03-07 2001-11-22 Nikon Gijutsu Kobo:Kk 位置検出装置およびその方法
JP2001344069A (ja) * 2000-03-31 2001-12-14 Seiko Epson Corp 画像処理を用いた指示位置の検出
JP2002374527A (ja) * 2001-06-13 2002-12-26 Ricoh Co Ltd プレゼンテーション用記録再生装置
JP2003504705A (ja) * 1999-07-06 2003-02-04 ハンセン、カール、シー. 無線ポインタの光学トラッキングを備えるコンピュータ・プレゼンテーション・システムおよび方法
JP2003058901A (ja) * 2001-08-16 2003-02-28 Sony Corp 記録装置および方法、再生装置および方法、記録媒体、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6377249B1 (en) * 1997-11-12 2002-04-23 Excel Tech Electronic light pen system
US6952198B2 (en) * 1999-07-06 2005-10-04 Hansen Karl C System and method for communication with enhanced optical pointer
JP3729252B2 (ja) * 2001-03-26 2005-12-21 セイコーエプソン株式会社 画像処理システム、プログラムおよび情報記憶媒体
JP3719411B2 (ja) * 2001-05-31 2005-11-24 セイコーエプソン株式会社 画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US6840627B2 (en) * 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
CA2429880C (en) * 2003-05-27 2009-07-07 York University Collaborative pointing devices

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339471A (ja) * 1999-05-31 2000-12-08 Matsushita Electric Ind Co Ltd 画像抽出方法およびその装置
JP2003504705A (ja) * 1999-07-06 2003-02-04 ハンセン、カール、シー. 無線ポインタの光学トラッキングを備えるコンピュータ・プレゼンテーション・システムおよび方法
JP2001209361A (ja) * 2000-01-27 2001-08-03 Matsushita Electric Ind Co Ltd マルチメディア表示装置
JP2001325069A (ja) * 2000-03-07 2001-11-22 Nikon Gijutsu Kobo:Kk 位置検出装置およびその方法
JP2001344069A (ja) * 2000-03-31 2001-12-14 Seiko Epson Corp 画像処理を用いた指示位置の検出
JP2001307107A (ja) * 2000-04-21 2001-11-02 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2002374527A (ja) * 2001-06-13 2002-12-26 Ricoh Co Ltd プレゼンテーション用記録再生装置
JP2003058901A (ja) * 2001-08-16 2003-02-28 Sony Corp 記録装置および方法、再生装置および方法、記録媒体、並びにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026262A (ja) * 2007-07-24 2009-02-05 Fuji Xerox Co Ltd 表示画像取得装置、表示画像取得プログラム
JP2010086193A (ja) * 2008-09-30 2010-04-15 Saxa Inc プレゼンテーション資料配信システム、及びプレゼンテーション資料上の指示位置データの配信システム
JP2011118533A (ja) * 2009-12-01 2011-06-16 Tokyo Denki Univ タッチ位置入力装置及びタッチ位置入力方法

Also Published As

Publication number Publication date
JPWO2004081783A1 (ja) 2006-06-15
US20050128297A1 (en) 2005-06-16
US7341352B2 (en) 2008-03-11
JP4040046B2 (ja) 2008-01-30

Similar Documents

Publication Publication Date Title
US7341352B2 (en) Apparatus, method and program for detecting a pointer region, apparatus, method and program for associating images, content-distributing server, and content-distributing method
US11849196B2 (en) Automatic data extraction and conversion of video/images/sound information from a slide presentation into an editable notetaking resource with optional overlay of the presenter
CN109618222B (zh) 一种拼接视频生成方法、装置、终端设备及存储介质
US20210056251A1 (en) Automatic Data Extraction and Conversion of Video/Images/Sound Information from a Board-Presented Lecture into an Editable Notetaking Resource
Erol et al. Linking multimedia presentations with their symbolic source documents: algorithm and applications
US8077930B2 (en) Method for recognizing content in an image sequence
US20160050465A1 (en) Dynamically targeted ad augmentation in video
CN112261477B (zh) 视频处理方法及装置、训练方法和存储介质
Rusiñol et al. Augmented songbook: an augmented reality educational application for raising music awareness
CN114465737B (zh) 一种数据处理方法、装置、计算机设备及存储介质
KR20120099814A (ko) 증강현실 컨텐츠 서비스 시스템과 장치 및 그 방법
KR20120071444A (ko) 증강 현실을 이용한 광고 제공 방법과 그를 위한 시스템, 장치 및 단말기
CN114339360B (zh) 一种视频处理的方法、相关装置及设备
CN111640193A (zh) 文字处理方法、装置、计算机设备及存储介质
US11758217B2 (en) Integrating overlaid digital content into displayed data via graphics processing circuitry
JP4176364B2 (ja) 画像対応付け装置及び画像対応付け方法並びに画像対応付けプログラム
US20170039768A1 (en) Apparatus for displaying image content based on pop-up book and method thereof
JP4540358B2 (ja) ポインタ位置特定プログラムおよびポインタ位置特定方法
TWI684964B (zh) 知識點標記生成系統及其方法
CN114445744A (zh) 一种教育视频自动定位方法、装置及存储介质
JP3940012B2 (ja) マッチングプログラムおよびマルチメディアコンテンツ編集プログラム
Li et al. A platform for creating Smartphone apps to enhance Chinese learning using augmented reality
Chen et al. MIDI-assisted egocentric optical music recognition
US20230103116A1 (en) Content utilization platform system and method of producing augmented reality (ar)-based image output
Kharitonova Geometry of Presentation Videos and Slides, and the Semantic Linking of Instructional Content (SLIC) System

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

WWE Wipo information: entry into national phase

Ref document number: 2004569359

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11045112

Country of ref document: US