WO2013081304A1 - 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체 - Google Patents

2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체 Download PDF

Info

Publication number
WO2013081304A1
WO2013081304A1 PCT/KR2012/009002 KR2012009002W WO2013081304A1 WO 2013081304 A1 WO2013081304 A1 WO 2013081304A1 KR 2012009002 W KR2012009002 W KR 2012009002W WO 2013081304 A1 WO2013081304 A1 WO 2013081304A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth information
control point
image
signal
depth
Prior art date
Application number
PCT/KR2012/009002
Other languages
English (en)
French (fr)
Inventor
김하윤
김아란
전병기
정원석
박영환
윤민주
안동현
김대현
최연봉
Original Assignee
에스케이플래닛 주식회사
(주)리얼디스퀘어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110124858A external-priority patent/KR20130058871A/ko
Priority claimed from KR1020110125868A external-priority patent/KR101330523B1/ko
Priority claimed from KR1020110125867A external-priority patent/KR101390961B1/ko
Application filed by 에스케이플래닛 주식회사, (주)리얼디스퀘어 filed Critical 에스케이플래닛 주식회사
Publication of WO2013081304A1 publication Critical patent/WO2013081304A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Definitions

  • the present invention relates to an image converting apparatus, a method for converting a 2D image into a 3D image, and a recording medium thereof. More particularly, the present invention relates to a method for converting a 2D image into a 3D image according to a control signal input by a user.
  • One method of generating a stereoscopic image is to convert a 2D video image into a 3D stereoscopic image.
  • an already made video content can be utilized and a 3D stereoscopic image can be obtained without using a separate recording device.
  • depth map is generated by giving depth information to objects displayed on the 2D plane image, and a left image and a right image are generated based on the depth map to generate a 3D stereoscopic image. Is converting to.
  • the quality of the 3D stereoscopic image is highly dependent on the accuracy of the depth map.
  • a method of generating a depth map includes extracting an object from a 2D image and setting depth information for each object. Depth information set for each object is applied to each of the corresponding 3D image rendering objects to generate an image having a three-dimensional effect as a whole. Therefore, the higher the number of objects to which depth information is assigned, the higher the quality of the 3D stereoscopic image can be obtained.
  • the image conversion system manages the objects of the 2D image independently, only the selected object is displayed when the operator wants to set or edit the depth information of the object. Therefore, as the number of objects increases, it becomes more difficult to manage them, so there is a limit to the number of objects that can be set.
  • the user may have to select and edit them individually.
  • an object selection signal for selecting at least one object in a two-dimensional image a dependency setting signal between the selected object, a control point setting signal, a depth information input signal, volume information Receives at least one control signal from an input signal or an automatic grounding function selection signal, sets depth information of an object included in the 2D image, and generates a depth map according to the set depth information to convert the 2D image into a 3D image.
  • an image conversion system and method for rendering and a recording medium thereof There is a technical problem to provide an image conversion system and method for rendering and a recording medium thereof.
  • a user input unit for inputting a control signal for selecting an object in the two-dimensional image and setting the depth information of the object, depth information of the object selected according to the input control signal
  • a depth map generator for recognizing and generating a depth map, a display for displaying a virtual object having a 2D image, a selected object, and set depth information, and a selected object or an area included in the object according to an input control signal.
  • an image converting apparatus including an image control unit configured to control depth display of a virtual object having a set depth information and projecting the virtual object in a 3D space.
  • control signal may include an object selection signal for selecting at least one object in a 2D image, a dependency setting signal between the selected objects, a control point setting signal, a depth information input signal, a volume information input signal, or an automatic grounding function selection signal. At least one of the.
  • the user input unit inputs an object selection signal for selecting at least two or more objects, a dependency setting signal between the selected objects, a control point setting signal, and a depth information input signal as a control signal
  • the depth map generator includes two or more signals according to the control signal. Select an object and set it as a dependency to manage it as a group.Recognize the control point set in the main object as the control point of the group containing the main object, and move the control point to input the depth information. Recognizes as depth information of the objects included in the group to generate a depth map.
  • the depth map generator selects two or more objects and sets them as a dependency to manage them as an object information extraction module.
  • the depth information is set according to the control point movement set in the main object, the depth information of the dependent objects included in the group And a depth map generation module for recognizing depth information of the object and generating a depth map.
  • the object information extraction module sets an object including other objects among two or more selected objects as a main object, and sets other objects included in the main object as dependent objects.
  • the user input unit inputs an object selection signal for selecting an object, a first control point setting signal, a second control point setting signal, a depth information input signal, and a volume information input signal as a control signal, and the depth map generator generates an object according to the control signal.
  • Select and set the first control point on the selected object recognize the depth information of the object according to the movement of the first control point, set the second control point on the object and the volume of the object according to the movement of the second control point Recognize the information and create a depth map.
  • the depth map generation unit selects and extracts an object according to a control signal, an object information extraction module, a depth information recognition module recognizing a Z value of the moved first control point as the depth information of the object, and a Z value of the moved second control point Is recognized as the volume information of the object and the volume information recognition module for recognizing that the depth information of the area in the contour of the object is sequentially changed from the first control point to the second control point, and the depth map according to the depth information and volume information of the object It is configured to include a depth map generation module for generating a.
  • the user input unit inputs an object selection signal for selecting at least two objects, a control point setting signal, a depth information input signal, and an automatic grounding function selection signal as a control signal, and the depth map generator selects the first object according to the control signal.
  • the control point on the selected first object recognize the depth information of the first object according to the movement of the control point, select the second object according to the control signal, and set the automatic grounding function on the selected second object to create the depth map.
  • the depth map generator selects and extracts an object according to a control signal, and recognizes the Z value of the moved control point as the depth information of the first object.
  • Depth recognition module for recognizing the depth information of the second object so that the depth information of the area in contact with the object and the first object, and Depth map generation to create a depth map according to the depth information of the first object and the second object It consists of modules.
  • the image converting apparatus further includes a 3D image rendering unit generating a left image and a right image having different parallax information with respect to the 2D image according to a depth map, and generating a 3D image by combining the left image and the right image. .
  • the image conversion method for rendering a two-dimensional image to a three-dimensional image in the image conversion apparatus (a) displaying the two-dimensional image in the three-dimensional space, the object is selected from the two-dimensional image (B) inputting a control signal for setting depth information of the object, selecting an object according to the control signal, recognizing depth information of the selected object, and generating a depth map according to the depth map; and
  • an image conversion method comprising the step (d) of rendering a two-dimensional image to a three-dimensional image.
  • an object selection signal for selecting at least two or more objects, a dependency setting signal between the selected objects, a control point setting signal, and a depth information input signal may be input as a control signal.
  • step (c) two or more objects are selected according to a control signal and set as a dependent relationship to be managed as a group.
  • the control point set in the main object among the objects managed as a group is controlled by the group.
  • C-2) recognizing a point; and
  • c-3) generating a depth map by recognizing the input depth information as the depth information of an object included in the group when moving the control point and inputting the depth information. It is configured to include.
  • an object selection signal for selecting an object may be input as a control signal.
  • step (c-2) recognizes the Z value of the first control point as the depth information of the object
  • step (c-4) recognizes the Z value of the second control point as the volume information of the object
  • an object selection signal for selecting at least two or more objects may be input as a control signal.
  • step (c) selecting a first object according to a control signal and setting a control point to the selected first object, (c-1), and moving the control point to recognize depth information of the first object (c-2). And (c-3) generating a depth map by selecting a second object according to a control signal and setting an automatic grounding function to the selected second object.
  • step (c-3) when the automatic grounding function is set for the second object, the depth information is generated by recognizing the depth information of the second object so that the depth information of the area where the second object and the first object contact each other.
  • the image conversion apparatus installed in the image conversion apparatus, displaying a two-dimensional image in a three-dimensional space, inputting a control signal for selecting an object in the two-dimensional image and setting the depth information of the object Selecting an object according to a control signal, recognizing depth information of the selected object, generating a depth map, and rendering a two-dimensional image into a three-dimensional image according to the depth map.
  • a recording medium readable by the electronic device.
  • the main object and the dependent object can be managed as a group, so that multiple objects can be managed efficiently.
  • the present invention selects an object from the 2D image and inputs depth information using the first Z control point. 2
  • the volume control information By allowing the volume control information to be input for the selected object using the Z control point, the user can intuitively recognize the depth information and the volume information of the object.
  • the present invention is to set the depth information of the first object in inputting the depth information of the objects that are in contact with each other when generating the depth map, select the second object in contact with the first object and select the automatic grounding function
  • the depth information of the two objects is automatically set according to the depth information of the first object, so that the depth information of the objects and objects, the object and the background, the background and the grounded area of the contact with each other can be easily set. .
  • the object when inputting the depth information of the object, the object is displayed in groups so that the objects affected by the depth information of the predetermined object can be checked at a glance, thereby improving convenience of inputting the depth information and obtaining detailed editing results. This has the effect of improving the quality of the converted 3D image.
  • FIG. 1 is a block diagram of an image conversion apparatus according to an aspect of the present invention.
  • FIG. 2 is a configuration diagram illustrating a depth map generator in accordance with an aspect of the present invention.
  • FIG. 3 is a flowchart of an image conversion method according to another aspect of the present invention.
  • FIG. 4 is a flowchart of a first embodiment of an image conversion method according to another aspect of the present invention.
  • FIG. 5 is a flowchart of a second embodiment of an image conversion method according to another aspect of the present invention.
  • FIG. 6 is a flowchart according to a third embodiment of an image conversion method according to another aspect of the present invention.
  • 7 to 9 are first to third display state diagrams of work screens of an image conversion apparatus according to an embodiment of the present invention.
  • FIG. 1 is a configuration diagram of an image conversion apparatus according to an aspect of the present invention
  • FIG. 2 is a configuration diagram of a depth map generator according to an aspect of the present invention.
  • the image conversion system 100 according to an embodiment of the present invention provides a graphic interface for a user to set depth information on an input 2D image, and generates a depth map according to the user's input. Model dimensional images.
  • the image conversion apparatus 100 may include a user input unit 110, a depth map generator 120, a display unit 130, an image controller 140, and the like.
  • 3D image rendering unit 150 is configured to include.
  • the user input unit 110 provides a user interface for inputting a control signal for selecting an object in a 2D image and setting depth information of the object, and transferring the control signal input by the user to another component of the image conversion apparatus 100. To pass.
  • control signal is selected from among an object selection signal for selecting at least one object in the 2D image, a signal for setting dependency relations between the selected objects, a control point setting signal, a depth information input signal, a volume information input signal, or an automatic grounding function selection signal. At least one.
  • the object selection signal refers to a control signal for selecting an object in a 2D image
  • the dependency setting signal between the selected objects refers to a control signal for setting a main object and a dependent object and storing them as a group, and setting a control point.
  • the signal refers to a control signal for setting a control point for changing the depth information of the selected object
  • the depth information input signal refers to a control signal for inputting the changed Z value by moving the set control point
  • the volume information input signal refers to the depth It is a control signal that inputs the volume information of the object by moving Z value by setting another control point to the information input object
  • the automatic grounding function selection signal is the control that matches the depth information of the area to which neighboring objects are connected equally. Means signal.
  • the depth map generator 120 recognizes depth information of the selected object according to the input control signal and generates a depth map.
  • the depth map generator 120 selects an object from a 2D image when an object selection signal is input.
  • Object selection in two-dimensional images uses image recognition techniques such as automatic edge detection using image contours and edge recognition using predefined user-defined closed curve patterns (eg, faces, circles, squares, etc.). To be automatically selected, or a method of selecting an object by setting a Bezier curve through the user input unit 110. Bezier curves are irregular curves created by selecting several control points to connect them.
  • Depth map generation unit 120 comprises an object information extraction module 210, depth information recognition module 220, depth map generation module 240, volume information recognition module 230 may be further included.
  • the object information extraction module 210 extracts an object to be selected when an object selection signal is input through the user input unit 110, and extracts identification information of the object, for example, (x, y) coordinates, a relationship between the objects, and the like. do.
  • the depth information recognition module 220 recognizes the Z value changed according to the movement of the control point set in the object as the depth information, and the depth map generation module 240 generates the depth map according to the recognized depth information.
  • the volume information recognition module 230 inputs a volume feeling of the object, and is recognized so that volume information is sequentially changed from the Z value changed according to the movement of the control point.
  • the display 130 displays a 2D image, an object selected from the 2D image, and a virtual object having set depth information.
  • the display unit 130 displays a series of working processes for inputting depth information by editing a 2D image, together with input contents and processing results, and displays a 2D image on an xy plane of a 3D space and displays depth information.
  • the input object is displayed by projecting it in the Z-axis direction.
  • the image controller 140 selects an object according to the input control signal, sets depth information of the selected object or a region included in the object, and displays a virtual object having the set depth information by projecting on the 3D space. To control.
  • the 3D image rendering unit 150 converts the input 2D image into a 3D image by using a depth map generated by the depth map generator 120. That is, the 3D image rendering unit 150 generates a left image and a right image having different parallax information by using a depth map, and generates a 3D image by combining the left image and the right image.
  • the user input unit 110 may select an object selection signal for selecting at least two or more objects, a dependency setting signal between selected objects, a control point setting signal, and a depth information input signal. Input as a control signal.
  • the depth map generator 120 selects two or more objects according to a control signal, sets them as dependencies, and manages them as a group.
  • the depth map is generated by recognizing the input depth information as the depth information of the objects included in the group.
  • the depth map generator 120 includes an object information extraction module 210, a depth information recognition module 220, and a depth map generation module 240.
  • the object information extraction module 210 manages a group by selecting two or more objects and setting them as dependencies.
  • the object information extraction module 210 may extract identification information such as (x, y) coordinates for identifying the selected object, and classify and store the main object and the dependent object.
  • the object information extraction module 210 may manage a plurality of dependent objects included in one main object as a group, and the method of setting the main object or the dependent objects among the selected objects may be performed by a user's input or automatically. Can be set.
  • the depth information recognition module 220 sets the depth information of the dependent objects included in the group in the same manner.
  • the depth information recognition module 220 receives the control point setting signal from the user input unit 110 and selects a point on the main object to set the control point.
  • the control point refers to a control point that can input or change depth information. Since the control point is used as a control point for changing the Z coordinate in three-dimensional space, the control point is used in the same sense as the Z control point.
  • the depth information of the dependent object is also entered or changed in accordance with the input or change of the depth information of the main object. do.
  • the depth map generation module 240 generates a depth map by recognizing depth information of the object, and generates a depth map by recognizing input depth information of the main object and the dependent object in the depth information recognition module 220.
  • FIG. 7 is a first display state diagram of a work screen of an image conversion device according to an embodiment of the present invention.
  • the face A is an object including the right eye (a-1) and the left eye (a-2) which are other objects, and thus the face (A) is set as the main object, and the right eye (a-1) and the left eye (a-2) It is set as a dependent object for the face A and managed as a group.
  • the Z values of the right eye a-1 and the left eye a-2 which are dependent objects of the face, are also determined by the change in the Z value of the face. Since the same change, the depth information of the objects in the dependency can be edited in a batch.
  • the depth information of the face A, the right eye a-1, and the left eye a-2 may be set to be the same or added or subtracted, and may be changed again as much as the depth information changed into a group.
  • the user input unit 110 uses the object selection signal, the first and second control point setting signals, the depth information input signal, and the volume information input signal for selecting at least two or more objects as control signals. Enter it.
  • the depth map generator 120 selects an object from a 2D image according to a control signal, sets a first control point to the selected object when a first control point setting signal is input, and depth information of the object according to the movement of the first control point. Recognize.
  • the depth map generator 120 sets a second control point on the object in which the depth information is recognized, and generates a depth map by recognizing volume information of the object according to the movement of the second control point.
  • the depth map generator 120 recognizes the volume information so that the changed Z value and the contour of the object are connected to the curved surface by moving the second control point.
  • the depth map generator 120 includes an object information extraction module 210, a depth information recognition module 220, a volume information recognition module 230, and a depth map generation module 240. It is configured by.
  • the object information extraction module 210 extracts contours and object identification information of the selected object from the 2D image.
  • the depth information recognition module 220 recognizes the changed Z value as the depth information of the object.
  • the depth information recognition module 220 receives the control point setting signal from the user input unit 110 and selects a point on the main object to set the control point.
  • the control point refers to a control point that can input or change depth information. Since the control point is used as a control point for changing the Z coordinate in three-dimensional space, the control point is used in the same sense as the Z control point.
  • the volume information recognition module 230 sets a second control point on the object in which the depth information is recognized, moves the second control point on the Z axis, and connects the changed second control point to the contour of the object by a curved surface to recognize volume information. do.
  • the depth information of the object located on the xy plane is changed to z1 by the movement of the first control point, so that the object is projected on the plane of height z1, the second control point is set on the projected object, and the volume information is z2.
  • the contour of the object on which the object is projected on the plane z1 and the moved second control point z2 are curved to recognize the volume information of each area of the object.
  • the depth map generation module 240 generates a depth map by recognizing depth information and volume information of the object.
  • FIG. 8 is a second display state diagram of a work screen of an image conversion device according to an embodiment of the present invention.
  • the first control point is set in the water droplet, and the first control point is moved to z1.
  • the depth information is changed to z1, and the virtual water droplets A are projected onto a plane having a height z1 in the three-dimensional space.
  • the height is moved to z2 by setting the second control point on the water droplet A projected on the plane that is z1, the contour of the water droplet projected on the plane that is the second control point and z1 moves to the surface a.
  • the volume information of the droplet is recognized.
  • the object having a three-dimensional effect can be set together with the depth information as well as the volume information, so that the three-dimensional effect can be expressed more vividly when rendering into a three-dimensional image.
  • the user input unit 110 inputs an object selection signal, a control point setting signal, a depth information input signal, and an automatic grounding function selection signal for selecting at least two or more objects as control signals.
  • the depth map generator 120 selects at least two objects from a two-dimensional image according to a control signal and sets a control point to one selected object (hereinafter, referred to as a “first object”) when a control point setting signal is input. And recognize the depth information of the first object according to the control point movement.
  • the depth map generator 120 selects another object neighboring the first object (hereinafter referred to as a 'second object') to set an automatic grounding function, or another object that is previously selected (hereinafter referred to as a 'second object'). Set the automatic grounding function.
  • the depth map generator 120 connects the boundary surfaces of the first object and the second object to which the depth information is set. That is, the depth information of the boundary surface of the second object in contact with the first object is automatically changed to the depth information of the first object, and the other boundary surface of the second object not in contact with the first object is not set with the depth information. do.
  • the depth information of the second object is set to change sequentially from the depth information before the automatic grounding function is set to the depth information of the first object.
  • the depth map generator 120 includes an object information extraction module 210, a depth information recognition module 220, and a depth map generation module 240.
  • the object information extraction module 210 extracts contours and object identification information of the selected object from the 2D image.
  • the depth information recognizing module 220 recognizes the changed Z value as the depth information of the object when the depth information is set according to the movement of the control point set in the object.
  • the depth information recognition module 220 receives the control point setting signal from the user input unit 110 and selects a point on the main object to set the control point.
  • the control point refers to a control point that can input or change depth information. Since the control point is used as a control point for changing the Z coordinate in three-dimensional space, the control point is used in the same sense as the Z control point.
  • the depth information recognition module 220 recognizes the Z value of the moved control point as the depth information of the first object, and when the automatic grounding function is set on the second object, the depth information of the area where the second object and the first object are in contact with each other is determined. Recognize depth information of the second object to match.
  • the map generation module 240 generates a depth map by recognizing depth information and volume information of the object.
  • FIG. 9 is a third display state diagram of a work screen of an image conversion device according to an embodiment of the present invention.
  • the human face A and the arm B of the two-dimensional image displayed on the xy plane are respectively selected as the first object and the second object, and the human face (
  • the control point is set in A
  • the control point is moved to z1
  • the depth information is changed to z1
  • the virtual human face A ' is projected on a plane having a height z1 in the three-dimensional space.
  • the edge portion of the arm B that is in contact with the human face A is recognized as depth information z1 and is not in contact with the human face.
  • the edge of the non-arm is recognized as "0" (xy plane), which is the original depth information, and the virtual arm B 'is projected onto the three-dimensional space.
  • the depth information of each component of the object may be set to change sequentially, it is possible to more vividly express a three-dimensional effect when rendering to a three-dimensional image.
  • FIG. 3 is a flowchart of an image conversion method according to another aspect of the present invention.
  • the 2D image is displayed in a 3D space (S310), and an object is selected from the 2D image.
  • a control signal for setting depth information of an object is input (S320).
  • the object is selected according to the control signal, the depth information is generated by recognizing the depth information of the selected object (S330), and the 2D image is rendered into the 3D image according to the depth map (S340).
  • FIG. 4 is a flowchart according to a first embodiment of an image conversion method according to another aspect of the present invention
  • FIG. 5 is a flowchart according to a second embodiment of an image conversion method according to another aspect of the present invention
  • the image conversion method displays a two-dimensional image in a three-dimensional space (S410), an object selection signal, a dependency setting signal between objects, a control point setting signal,
  • the depth information input signal is input as a control signal (S420).
  • main object and the dependent object are set as the dependency relationship and managed as one group (S430).
  • Main and dependent object settings can be set manually by the user or automatically depending on the object's containment relationship.
  • control point When the control point is set in the main object (S440), the control point is recognized as a control point for the group (S450).
  • control point When the control point is moved to input depth information (S460), the input depth information is used as the depth of the entire object included in the group.
  • the depth map is generated by recognizing the information (S470).
  • a two-dimensional image is displayed in a three-dimensional space (S510), an object selection signal, a first and second control point setting signal, a depth information input signal, and volume information.
  • the input signal is input as a control signal (S520).
  • the 3D image can be rendered to express the three-dimensional effect more vividly.
  • a 2D image is displayed in a 3D space (S610), and an object selection signal, a control point setting signal, a depth information input signal, and an automatic grounding function selection signal are controlled.
  • Input as a signal (S620).
  • a first object is selected in a 2D image (S630), a control point is set in the first object (S640), and the control point is moved to recognize depth information of the first object (S650).
  • the image conversion apparatus installed in the image conversion apparatus, displaying a two-dimensional image in a three-dimensional space, inputting a control signal for selecting an object in the two-dimensional image and setting the depth information of the object Selecting an object according to a control signal, recognizing depth information of the selected object, generating a depth map, and rendering a two-dimensional image into a three-dimensional image according to the depth map.
  • a recording medium readable by the electronic device.
  • An image conversion method can be written in a program, and codes and code segments constituting the program can be easily inferred by a programmer in the art.
  • the program of the image conversion method is stored in an information storage medium (Readable Medium) that can be read by the electronic device, by being read and executed by the electronic device can render a two-dimensional image to a three-dimensional image more three-dimensionally.
  • an information storage medium Readable Medium
  • an image conversion apparatus for converting a 2D image into a 3D image may include a processor, a memory, a storage device, and an input / output device as components, and these components may be interconnected using, for example, a system bus. have.
  • the processor may process instructions for execution within the device.
  • this processor may be a single-threaded processor, and in other implementations, the processor may be a multi-threaded processor.
  • the processor is capable of processing instructions stored on a memory or storage device.
  • the memory stores information in the apparatus.
  • the memory is a computer readable medium.
  • the memory may be a volatile memory unit, and for other implementations, the memory may be a nonvolatile memory unit.
  • the storage device described above can provide a mass storage for the device.
  • the storage device is a computer readable medium.
  • the storage device may include, for example, a hard disk device, an optical disk device, or some other mass storage device.
  • the input / output device provides an input / output operation for the device according to the present invention.
  • the input / output device may include one or more network interface devices such as, for example, an Ethernet card, such as a serial communication device such as an RS-232 port and / or a wireless interface device such as, for example, an 802.11 card.
  • the input / output device can include driver devices, such as keyboards, printers, and display devices, configured to send output data to and receive input data from other input / output devices.
  • the apparatus according to the invention may be driven by instructions that cause one or more processors to perform the functions and processes described above.
  • such instructions may include instructions that are interpreted, for example, script instructions such as JavaScript or ECMAScript instructions, or executable code or other instructions stored on a computer readable medium.
  • the device according to the present invention may be implemented in a distributed manner over a network, such as a server farm, or may be implemented in a single computer device.
  • the specification and drawings describe exemplary device configurations, the functional operations and subject matter implementations described herein may be embodied in other types of digital electronic circuitry, or modified from the structures and structural equivalents disclosed herein. It may be implemented in computer software, firmware or hardware, including, or a combination of one or more of them. Implementations of the subject matter described herein relate to one or more computer program products, ie computer program instructions encoded on a program storage medium of tangible type for controlling or by the operation of an apparatus according to the invention. It may be implemented as the above module.
  • the computer readable medium may be a machine readable storage device, a machine readable storage substrate, a memory device, a composition of materials affecting a machine readable propagated signal, or a combination of one or more thereof.
  • processing system encompass all the instruments, devices and machines for processing data, including, for example, programmable processors, computers or multiple processors or computers.
  • the processing system may include, in addition to hardware, code that forms an execution environment for a computer program on demand, such as code constituting processor firmware, a protocol stack, a database management system, an operating system, or a combination of one or more thereof. .
  • a computer program (also known as a program, software, software application, script or code) mounted on an apparatus according to the invention and executing a method according to the invention is a programming comprising a compiled or interpreted language or a priori or procedural language. It can be written in any form of language, and can be deployed in any form, including stand-alone programs or modules, components, subroutines, or other units suitable for use in a computer environment.
  • a computer program does not necessarily correspond to a file in a file system.
  • a program may be in a single file provided to the requested program, in multiple interactive files (eg, a file that stores one or more modules, subprograms, or parts of code), or part of a file that holds other programs or data. (Eg, one or more scripts stored in a markup language document).
  • the computer program may be deployed to run on a single computer or on multiple computers located at one site or distributed across multiple sites and interconnected by a communication network.
  • Computer-readable media suitable for storing computer program instructions and data include, for example, semiconductor memory devices such as EPROM, EEPROM, and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks, and CD-ROMs. And all forms of nonvolatile memory, media and memory devices, including DVD-ROM discs.
  • semiconductor memory devices such as EPROM, EEPROM, and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks, and CD-ROMs. And all forms of nonvolatile memory, media and memory devices, including DVD-ROM discs.
  • the processor and memory can be supplemented by or integrated with special purpose logic circuitry.
  • Implementations of the subject matter described herein may include, for example, a backend component such as a data server, or include a middleware component such as, for example, an application server, or a web browser or graphical user, for example, where a user may interact with the implementation of the subject matter described herein. It can be implemented in a computing system that includes a front end component such as a client computer having an interface or any combination of one or more of such back end, middleware or front end components. The components of the system may be interconnected by any form or medium of digital data communication such as, for example, a communication network.
  • the present invention when a user selects an object from a 2D image and inputs depth information to convert the 2D image into a 3D image, the user selects a plurality of objects and sets dependency and depth information relationships between the objects.
  • the present invention can be used to provide an image conversion system and method for converting a 2D image into a 3D image and a recording medium thereof.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체에 관한 것으로, 영상 변환 장치는 2차원 영상에서 객체를 선택하고 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 사용자 입력부, 입력된 제어 신호에 따라 선택된 객체의 깊이 정보가 인식되어 깊이 맵을 생성하는 깊이 맵 생성부, 2차원 영상, 선택된 객체 및 설정된 깊이 정보를 갖는 가상의 객체를 디스플레이하는 디스플레이부, 및 입력된 제어 신호에 따라 선택된 객체 또는 객체에 포함된 영역의 깊이 정보가 설정되고 설정된 깊이 정보를 갖는 가상의 객체를 3차원 공간에 투영하여 표시하도록 제어하는 영상 제어부를 포함한다.

Description

2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체
본 발명은 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체에 관한 것으로서, 보다 상세하게는 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 입력한 제어 신호에 따라 객체의 깊이 정보를 인식하여 깊이 맵을 생성하고, 생성된 깊이 맵을 이용하여 2차원 영상을 3차원 영상으로 렌더링하는 영상 변환 시스템과 방법 및 그에 대한 기록매체에 관한 것이다.
3차원 입체 영상(stereoscopic image)에 대한 관심이 높아지면서 입체영상을 생성하기 위한 다양한 방법들이 개발되고 있다. 입체 영상을 생성하는 방법 중에는 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 방법이 있다. 2차원 비디오 영상을 3차원 입체 영상으로 변환하는 경우, 이미 만들어진 비디오 콘텐츠를 활용할 수 있으며 별도의 촬영장비를 이용하지 않고도 3차원 입체 영상을 얻을 수 있다는 장점이 있다.
2차원 평면 영상을 3차원 입체 영상으로 변환시키기 위해서는, 2차원 평면 영상으로부터 서로 다른 시차 정보를 가지는 좌측 영상과 우측 영상을 생성해야 한다. 이에, 2차원 평면 영상에 표시된 객체들에 깊이(depth)정보를 부여하여 깊이 맵(Depth Map)을 생성하고 깊이 맵에 기초하여 좌측 영상과 우측 영상을 생성함으로써 2차원 평면 영상을 3차원 입체 영상으로 변환하고 있다. 이에, 3차원 입체 영상의 품질은 깊이 맵의 정확성에 따라 크게 좌우된다.
한편, 깊이 맵을 생성하는 방법으로는 2차원 영상에서 객체를 추출하고 각 객체에 대해 깊이정보를 설정하는 방법이 있다. 각 객체에 설정된 깊이정보는 3차원 영상 렌더링 해당 객체들에 각각 적용되어 전체적으로 입체감을 갖는 영상이 생성된다. 따라서, 깊이정보가 부여된 객체의 개수가 많을수록 고품질의 3차원 입체 영상을 얻을 수 있다.
그런데, 종래기술에 따른 영상 변환 시스템은 2차원 영상의 객체들을 각기 독립적으로 관리하고 있기 때문에, 작업자가 객체의 깊이정보를 설정하거나 편집하고자 하는 경우 선택된 객체만이 표시된다. 따라서, 객체의 개수가 증가할 수록 이들을 관리하기는 어려워지므로 설정할 수 있는 객체의 개수에 한계가 있다.
또한, 상호 연관된 영역에 위치하고 있는 객체들의 깊이정보를 설정하거나 편집하는 경우, 사용자는 이들을 일일이 선택하여 편집해야 하는 어려움이 있다.
또한, 객체에 대해 단일의 깊이정보를 적용하여 3차원 영상으로 변환하는 경우 완전 평면 상태인 객체가 배경으로부터 돌출되어 있는 것 같이 표현되어 3차원 영상의 품질이 저하되는 문제점이 있다. 이를 해결하기 위해서는 객체를 세분화하여 더 많은 객체에 대해 깊이정보를 설정해야 하지만, 이러한 경우 관리해야 할 객체의 수와 작업량이 증가하여 수작업으로 진행하는 데에는 한계가 있다.
또한, 종래 기술에 따른 접지면에 대한 편집기술은, 접지하고자 하는 지점의 깊이 값(Gray)을 알아낼 수 있는 도구를 활용하여 수치를 알아낸 후, 접지하고자 하는 객체의 지점에 동일한 깊이 값을 지정하는 절차를 거치게 된다. 이러한 접지면에 대한 편집과정을 수작업으로 진행하는 데에는 많은 어려움이 있으며, 작업자의 숙련도에 따라 작업 시간이나 결과물의 품질이 크게 달라질 수 있다는 문제점이 있다.
본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 2차원 영상에서 적어도 하나의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호, 볼륨 정보 입력 신호, 또는 자동 접지기능 선택 신호 중 적어도 하나의 제어 신호를 입력받아, 2차원 영상에 포함된 객체의 깊이 정보를 설정하고 설정된 깊이 정보에 따라 깊이 맵을 생성하여 2차원 영상을 3차원 영상으로 렌더링하는 영상 변환 시스템과 방법 및 그에 대한 기록매체를 제공하는데 그 기술적 과제가 있다.
상술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 2차원 영상에서 객체를 선택하고 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 사용자 입력부, 입력된 제어 신호에 따라 선택된 객체의 깊이 정보가 인식되어 깊이 맵을 생성하는 깊이 맵 생성부, 2차원 영상, 선택된 객체 및 설정된 깊이 정보를 갖는 가상의 객체를 디스플레이하는 디스플레이부, 및 입력된 제어 신호에 따라 선택된 객체 또는 객체에 포함된 영역의 깊이 정보가 설정되고 설정된 깊이 정보를 갖는 가상의 객체를 3차원 공간에 투영하여 표시하도록 제어하는 영상 제어부를 포함하는 영상 변환 장치가 제공된다.
여기서, 제어 신호는 2차원 영상에서 적어도 하나의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호, 볼륨 정보 입력 신호, 또는 자동 접지기능 선택 신호 중 적어도 하나를 포함한다.
사용자 입력부는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호, 및 깊이 정보 입력 신호를 제어 신호로 입력하고, 깊이 맵 생성부는 제어 신호에 따라 둘 이상의 객체를 선택하여 종속관계로 설정하여 하나의 그룹으로 관리하고, 주 객체에 설정된 컨트롤 포인트를 주 객체가 포함된 그룹의 컨트롤 포인트로 인식하고, 컨트롤 포인트를 이동시켜 깊이 정보를 입력하면 입력된 깊이 정보를 상기 그룹에 포함되는 객체의 깊이 정보로 인식하여 깊이 맵을 생성한다.
깊이 맵 생성부는 둘 이상의 객체를 선택하고 종속관계로 설정하여 하나의 그룹으로 관리하는 객체정보 추출모듈, 주 객체에 설정된 컨트롤 포인트 이동에 따라 깊이 정보가 설정되면 그룹에 포함된 종속 객체의 깊이 정보도 동일하게 설정하는 깊이정보 인식모듈, 및 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성모듈을 포함하여 구성된다.
객체정보 추출모듈은 선택된 둘 이상의 객체 중 다른 객체들을 포함하는 객체를 주 객체로 설정하고, 주 객체에 포함되는 다른 객체들을 종속 객체로 설정한다.
사용자 입력부는 객체를 선택하는 객체 선택 신호, 제1 컨트롤 포인트 설정 신호, 제2 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 볼륨 정보 입력 신호를 제어 신호로 입력하고, 깊이 맵 생성부는 제어 신호에 따라 객체를 선택하고 선택된 객체에 제1 컨트롤 포인트를 설정하고, 제1 컨트롤 포인트의 이동에 따라 객체의 깊이 정보를 인식하고, 객체에 제2 컨트롤 포인트를 설정하고 제2 컨트롤 포인트의 이동에 따라 객체의 볼륨 정보를 인식하여 깊이 맵을 생성한다.
깊이 맵 생성부는 제어 신호에 따라 객체를 선택하여 추출하는 객체정보 추출모듈, 이동된 제1 컨트롤 포인트의 Z값을 객체의 깊이 정보로 인식하는 깊이정보 인식모듈, 이동된 제2 컨트롤 포인트의 Z값을 객체의 볼륨 정보로 인식하고 객체의 윤곽선 내 영역의 깊이 정보가 제1 컨트롤 포인트로부터 제2 컨트롤 포인트까지 순차적으로 변화되도록 인식하는 볼륨정보 인식모듈, 및 객체의 깊이 정보와 볼륨 정보에 따라 깊이 맵을 생성하는 깊이 맵 생성모듈을 포함하여 구성된다.
사용자 입력부는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 자동 접지기능 선택 신호를 제어 신호로 입력하고, 깊이 맵 생성부는 제어 신호에 따라 제1 객체를 선택하고 선택된 제1 객체에 컨트롤 포인트를 설정하고 컨트롤 포인트의 이동에 따라 제1 객체의 깊이 정보를 인식하고, 제어 신호에 따라 제2 객체를 선택하고 선택된 제2 객체에 자동 접지기능을 설정하여 깊이 맵을 생성한다.
깊이 맵 생성부는 제어 신호에 따라 객체를 선택하여 추출하는 객체정보 추출모듈, 이동된 컨트롤 포인트의 Z값을 상기 제1 객체의 깊이 정보로 인식하고, 제2 객체에 자동 접지기능이 설정되면 제2 객체와 제1 객체가 접하는 영역의 깊이 정보가 일치하도록 상기 제2 객체의 깊이정보를 인식하는 깊이정보 인식모듈, 및 제1 객체와 제2 객체의 깊이 정보에 따라 깊이 맵을 생성하는 깊이 맵 생성모듈을 포함하여 구성된다.
영상 변환 장치는 깊이 맵에 따라 상기 2차원 영상에 대해 서로 다른 시차 정보를 갖는 좌측 영상과 우측 영상을 생성하고 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성하는 3차원 영상 렌더링부를 더 포함한다.
본 발명의 다른 측면에 따르면, 영상 변환 장치에서 2차원 영상을 3차원 영상으로 렌더링하는 영상 변환 방법에 있어서, 2차원 영상을 3차원 공간에 표시하는 (a) 단계, 2차원 영상에서 객체를 선택하고 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 (b) 단계, 제어 신호에 따라 객체를 선택하고 선택한 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 (c) 단계, 및 깊이 맵에 따라 2차원 영상을 3차원 영상으로 렌더링하는 (d) 단계를 포함하는 영상 변환 방법이 제공된다.
(b) 단계는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호 및 깊이 정보 입력 신호를 제어 신호로 입력할 수 있다.
(c) 단계는 제어 신호에 따라 둘 이상의 객체를 선택하여 종속관계로 설정하여 하나의 그룹으로 관리하는 (c-1) 단계, 그룹으로 관리되는 객체 중 주 객체에 설정된 컨트롤 포인트를 상기 그룹의 컨트롤 포인트로 인식하는 (c-2) 단계, 및 컨트롤 포인트를 이동시켜 깊이 정보를 입력하면 입력된 깊이 정보를 그룹에 포함된 객체의 깊이 정보로 인식하여 깊이 맵을 생성하는 (c-3) 단계를 포함하여 구성된다.
(b) 단계는 객체를 선택하는 객체 선택 신호, 제1 컨트롤 포인트 설정 신호, 제2 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 볼륨 정보 입력 신호를 제어 신호로 입력할 수 있다.
(c) 단계는 제어 신호에 따라 객체를 선택하고 선택된 객체에 제1 컨트롤 포인트를 설정하는 (c-1) 단계, 제1 컨트롤 포인트를 이동시켜 상기 객체의 깊이 정보를 인식하는 (c-2) 단계, 객체에 제2 컨트롤 포인트를 설정하는 (c-3) 단계, 및 제2 컨트롤 포인트를 이동시켜 객체의 볼륨 정보를 인식하여 깊이 맵을 생성하는 (c-4) 단계를 포함하여 구성된다.
또한, (c-2) 단계는 제1 컨트롤 포인트의 Z값을 객체의 깊이 정보로 인식하고, (c-4) 단계는 제2 컨트롤 포인트의 Z값을 객체의 볼륨 정보로 인식하고, 객체의 윤곽선 내 영역의 깊이 정보가 제1 컨트롤 포인트로부터 제2 컨트롤 포인트까지 순차적으로 변화되도록 인식하여 깊이 맵을 생성한다.
(b) 단계는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 자동 접지기능 선택 신호를 제어 신호로 입력할 수 있다.
(c) 단계는 제어 신호에 따라 제1 객체를 선택하고 선택된 제1 객체에 컨트롤 포인트를 설정하는 (c-1) 단계, 컨트롤 포인트를 이동시켜 제1 객체의 깊이 정보를 인식하는 (c-2) 단계, 및 제어 신호에 따라 제2 객체를 선택하고 선택된 제2 객체에 자동 접지기능을 설정하여 깊이 맵을 생성하는 (c-3) 단계를 포함하여 구성된다.
여기서, (c-3) 단계는 제2 객체에 자동 접지기능이 설정되면 제2 객체와 제1 객체가 접하는 영역의 깊이 정보가 일치하도록 제2 객체의 깊이 정보를 인식하여 깊이 맵을 생성한다.
본 발명의 또 다른 측면에 따르면, 영상 변환 장치에 설치되고, 2차원 영상을 3차원 공간에 표시하는 단계, 2차원 영상에서 객체를 선택하고 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 단계, 제어 신호에 따라 객체를 선택하고 선택한 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 단계, 및 깊이 맵에 따라 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 변환 방법이 프로그램으로 기록되고 전자 장치에서 판독 가능한 기록매체가 제공된다.
상술한 바와 같이 본 발명에 따른 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이정보를 입력하고자 하는 경우, 주 객체의 영역 내에 포함되는 하나 이상의 종속 객체를 설정하여 주 객체와 종속 객체를 하나의 그룹으로 관리할 수 있도록 함으로써, 다수개의 객체를 효율적으로 관리할 수 있다.
또한, 본 발명은 2차원 영상을 3차원 영상으로 변환하기 위해 깊이 맵을 생성하는 경우 사용자가 2차원 영상에서 객체를 선택하고 선택된 객체를 제1 Z컨트롤 포인트를 이용하여 깊이정보를 입력한 후 제2 Z컨트롤 포인트를 이용하여 선택된 객체에 대해 볼륨정보를 입력할 수 있도록 함으로써, 사용자가 객체의 깊이정보와 볼륨정보를 직관적으로 인식하여 용이하게 입력할 수 있다.
또한, 본 발명은 깊이 맵 생성 시 상호 접해 있는 객체의 깊이정보를 입력함에 있어서 제1객체의 깊이정보를 설정한 후, 제1객체와 접해 있는 제2객체를 선택하고 자동 접지기능을 선택하면 제2객체의 깊이정보가 제1객체의 깊이정보에 따라 자동으로 설정되도록 함으로써, 상호 접해 있는 객체와 객체, 객체와 배경, 배경과 배경의 접지 영역의 깊이정보를 용이하게 설정할 수 있도록 하는 효과가 있다.
또한, 객체의 깊이정보를 입력하는 경우 그룹 단위로 객체를 표시하여 소정 객체의 깊이정보에 의해 영향을 받게 되는 객체들을 한눈에 확인할 수 있도록 하여 깊이정보 입력의 편의성을 증진시키고 세밀한 편집 결과물을 얻을 수 있으며, 이에, 변환된 3차원 영상의 품질을 향상시킬 수 있는 효과가 있다.
도 1은 본 발명의 일 측면에 따른 영상 변환 장치의 구성도이다.
도 2는 본 발명의 일 측면에 따른 깊이 맵 생성부의 구성도이다.
도 3은 본 발명의 다른 측면에 따른 영상 변환 방법의 흐름도이다.
도 4는 본 발명의 다른 측면에 따른 영상 변환 방법의 제1 실시예에 따른 흐름도이다.
도 5는 본 발명의 다른 측면에 따른 영상 변환 방법의 제2 실시예에 따른 흐름도이다.
도 6은 본 발명의 다른 측면에 따른 영상 변환 방법의 제3 실시예에 따른 흐름도이다.
도 7 내지 도 9는 본 발명의 실시예에 따른 영상 변환 장치의 작업 화면의 제1 내지 제3 표시 상태도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다. 첨부 도면을 참조하여 설명함에 있어 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 측면에 따른 영상 변환 장치의 구성도이고, 도 2는 본 발명의 일 측면에 따른 깊이 맵 생성부의 구성도이다. 본 발명의 실시예에 따른 영상 변환 시스템(100)은 입력된 2차원 영상에 대해 사용자가 깊이정보를 설정할 수 있도록 그래픽 인터페이스를 제공하고, 사용자의 입력에 따라 깊이 맵(depth map)을 생성하여 3차원 영상을 모델링한다.
본 발명의 실시예에 따르면, 영상 변환 장치(100)는, 도 1에 도시한 바와 같이, 사용자 입력부(110), 깊이 맵 생성부(120), 디스플레이부(130), 영상 제어부(140) 및 3차원 영상 렌더링부(150)를 포함하여 구성된다.
사용자 입력부(110)는 2차원 영상에서 객체를 선택하고 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 사용자 인터페이스를 제공하고, 사용자가 입력한 제어 신호를 영상 변환 장치(100)의 다른 구성부로 전달한다.
여기서, 제어 신호는 2차원 영상에서 적어도 하나의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호, 볼륨 정보 입력 신호 또는 자동 접지기능 선택 신호 중 적어도 하나를 포함한다.
객체 선택 신호는 2차원 영상에서 객체를 선택하는 제어 신호를 의미하고, 선택된 객체 사이의 종속관계 설정 신호는 주 객체와 종속 객체를 설정하여 하나의 그룹으로 저장하는 제어 신호를 의미하고, 컨트롤 포인트 설정 신호는 선택된 객체의 깊이 정보를 변화시키기 위한 제어점을 설정하는 제어 신호를 의미하고, 깊이 정보 입력 신호는 설정된 컨트롤 포인트를 이동시켜 변화된 Z값을 입력하는 제어 신호를 의미하고, 볼륨 정보 입력 신호는 깊이 정보가 입력된 객체에 다른 컨트롤 포인트를 설정하여 Z값을 이동시켜 객체의 볼륨 정보를 입력하는 제어 신호이고, 자동 접지기능 선택 신호는 이웃하는 객체가 연결되는 영역의 깊이 정보를 동일하게 일치시키는 제어 신호를 의미한다.
깊이 맵 생성부(120)는 입력된 제어 신호에 따라 선택된 객체의 깊이 정보가 인식되어 깊이 맵을 생성한다.
깊이 맵 생성부(120)는 객체 선택 신호가 입력되면 2차원 영상에서 객체를 선택한다. 2차원 영상에서 객체 선택은 이미지 윤곽을 이용한 경계면 자동 탐색 방법과, 미리 정해놓은 사용자 정의 폐곡선 패턴(예를 들어, 얼굴, 원, 사각형 등)을 활용하여 에지 인식하는 방법 등의 영상 인식 기술을 이용하여 자동으로 선택되도록 하거나, 또는 사용자 입력부(110)를 통해 베지어 곡선(Bezier curve)을 설정하여 객체를 선택하는 방법을 사용할 수 있다. 베지어 곡선은 몇 개의 제어점을 선택하여 점과 점 사이가 연결되도록 함으로써 생성되는 불규칙한 곡선을 의미한다.
깊이 맵 생성부(120)는, 도 2에 도시한 바와 같이, 객체정보 추출모듈(210), 깊이정보 인식모듈(220), 깊이 맵 생성모듈(240)을 포함하여 구성되며, 볼륨정보 인식모듈(230)을 더 포함하여 구성될 수도 있다.
객체정보 추출모듈(210)은 사용자 입력부(110)를 통해 객체 선택 신호가 입력되면 선택할 객체를 추출하고, 객체의 식별정보, 예를 들어, (x, y) 좌표, 객체 사이의 관계 등을 추출한다.
깊이정보 인식모듈(220)은 객체에 설정된 컨트롤 포인트 이동에 따라 변화된 Z값을 깊이 정보로 인식하고, 깊이 맵 생성모듈(240)은 인식한 깊이 정보에 따라 깊이 맵을 생성한다.
볼륨정보 인식모듈(230)은 객체의 볼륨감을 입력하는 기능을 하며, 컨트롤 포인트의 이동에 따라 변화된 Z값부터 순차적으로 볼륨 정보가 변화되도록 인식된다.
디스플레이부(130)는 2차원 영상, 2차원 영상에서 선택된 객체, 설정된 깊이 정보를 갖는 가상의 객체를 디스플레이한다. 디스플레이부(130)는 2차원 영상을 편집하여 깊이 정보를 입력하기 위한 일련의 작업 과정을 입력되는 내용과 처리 결과를 함께 디스플레이하며, 3차원 공간의 xy평면에 2차원 영상을 표시하고 깊이 정보가 입력된 객체는 Z축 방향으로 투영시켜 표시한다.
또한, 영상 제어부(140)는 입력된 제어 신호에 따라 객체를 선택하고, 선택된 객체 또는 객체에 포함된 영역의 깊이 정보를 설정하고, 설정된 깊이 정보를 갖는 가상의 객체를 3차원 공간에 투영하여 표시하도록 제어한다.
3차원 영상 렌더링부(150)는 깊이 맵 생성부(120)에서 생성된 깊이 맵(depth map)을 이용하여 입력된 2차원 영상을 3차원 영상으로 변환한다. 즉, 3차원 영상 렌더링부(150)는 깊이 맵을 이용하여 서로 다른 시차 정보를 갖는 좌측 영상과 우측 영상을 생성하고 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성한다.
이하에서는, 다수의 객체들을 종속관계로 설정하는 경우, 볼륨 정보를 입력하는 경우, 자동 접지기능을 사용하는 경우의 영상 변환 장치의 각 구성부의 기능에 대하여 구체적으로 설명하도록 한다.
다수의 객체들을 종속관계로 설정하는 경우
먼저, 다수의 객체들을 종속관계로 설정하는 경우, 사용자 입력부(110)는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호, 및 깊이 정보 입력 신호를 제어 신호로 입력한다.
깊이 맵 생성부(120)는 제어 신호에 따라 둘 이상의 객체를 선택하여 종속관계로 설정하여 하나의 그룹으로 관리하고, 주 객체에 설정된 컨트롤 포인트를 주 객체가 포함된 그룹의 컨트롤 포인트로 인식하고 컨트롤 포인트를 이동시켜 깊이 정보를 입력하면 입력된 깊이 정보를 그룹에 포함된 객체의 깊이 정보로 인식하여 깊이 맵을 생성한다.
깊이 맵 생성부(120)는, 도 2에 도시한 바와 같이, 객체정보 추출모듈(210), 깊이정보 인식모듈(220) 및 깊이 맵 생성모듈(240)을 포함하여 구성된다.
객체정보 추출모듈(210)은 둘 이상의 객체를 선택하고 종속관계로 설정하여 하나의 그룹으로 관리한다. 객체정보 추출모듈(210)은 선택한 객체 식별을 위해 (x, y) 좌표와 같은 식별 정보를 함께 추출할 수 있고, 주 객체와 종속 객체를 분류하여 저장할 수 있다.
객체정보 추출모듈(210)은 하나의 주 객체에 포함되는 다수의 종속 객체를 하나의 그룹으로 관리할 수 있고, 선택된 객체들 중 주 객체 또는 종속 객체로 설정하는 방법은 사용자의 입력에 의해 또는 자동으로 설정될 수 있다.
깊이정보 인식모듈(220)은 주 객체에 설정된 컨트롤 포인트 이동에 따라 깊이 정보가 설정되면 그룹에 포함된 종속 객체의 깊이 정보도 동일하게 설정한다.
구체적으로, 깊이정보 인식모듈(220)은 사용자 입력부(110)를 컨트롤 포인트 설정 신호를 입력받아 주 객체에 한 지점(point)을 선택하여 컨트롤 포인트를 설정한다.
컨트롤 포인트는 깊이 정보를 입력 또는 변화시킬 수 있는 제어점을 의미하며, 3차원 공간에 Z좌표를 변화시키는 제어점으로 사용되므로 Z 컨트롤 포인트와 동일한 의미로 사용한다.
주 객체에 컨트롤 포인트가 설정되어 깊이 정보가 입력되면, 종속관계에 있는 종속 객체들도 하나의 그룹으로 관리되기 때문에, 종속 객체의 깊이 정보도 주 객체의 깊이 정보 입력 또는 변화에 따라 함께 입력 또는 변화된다.
깊이 맵 생성모듈(240)은 객체의 깊이 정보를 인식하여 깊이 맵을 생성하여, 깊이정보 인식모듈(220)에서 주 객체 및 종속 객체의 입력된 깊이 정보를 인식하여 깊이 맵을 생성한다.
도 7은 본 발명의 실시예에 따른 영상 변환 장치의 작업 화면의 제1 표시 상태도이다.
제1 표시 상태도에 따르면, 도 7에 도시한 바와 같이, 사람 얼굴이 포함된 2차원 영상으로부터 얼굴(A), 우측 눈(a-1), 좌측 눈(a-2)을 객체로 선택하면, 얼굴(A)은 다른 객체인 우측 눈(a-1)과 좌측 눈(a-2)을 포함하는 객체이므로 주 객체로 설정되고, 우측 눈(a-1)과 좌측 눈(a-2)은 얼굴(A)에 대한 종속 객체로 설정되어 하나의 그룹으로 관리된다.
따라서, 얼굴(A) 영역에 컨트롤 포인트를 설정하여 Z값을 변화시키면, 얼굴에 대한 종속 객체인 우측 눈(a-1)과 좌측 눈(a-2)의 Z값도 얼굴의 Z값 변화량과 동일하게 변화되므로, 종속관계에 있는 객체들의 깊이 정보를 일괄적으로 편집할 수 있다.
이때, 얼굴(A)과 우측 눈(a-1), 좌측 눈(a-2)의 깊이 정보는 동일하게 또는 가감을 두어 설정할 수 있고, 그룹으로 변경된 깊이 정보 만큼 다시 변경될 수 있다.
볼륨 정보를 입력하는 경우
다음으로, 볼륨 정보를 입력하는 경우, 사용자 입력부(110)는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 제1, 제2 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 볼륨 정보 입력 신호를 제어 신호로 입력한다.
깊이 맵 생성부(120)는 제어 신호에 따라 2차원 영상에서 객체를 선택하고 제1 컨트롤 포인트 설정 신호가 입력되면 선택한 객체에 제1 컨트롤 포인트를 설정하고 제1 컨트롤 포인트 이동에 따라 객체의 깊이 정보를 인식한다.
깊이 맵 생성부(120)는 깊이 정보가 인식된 객체에 제2 컨트롤 포인트를 설정하고 제2 컨트롤 포인트의 이동에 따라 객체의 볼륨 정보를 인식하여 깊이 맵을 생성한다.
깊이 맵 생성부(120)는 제2 컨트롤 포인트를 이동시켜 변화된 Z값과 객체의 윤곽선이 곡면으로 연결되도록 볼륨 정보를 인식한다.
깊이 맵 생성부(120)는, 도 2에 도시한 바와 같이, 객체정보 추출모듈(210), 깊이정보 인식모듈(220), 볼륨정보 인식모듈(230) 및 깊이 맵 생성모듈(240)을 포함하여 구성된다.
객체정보 추출모듈(210)은 2차원 영상으로부터 선택된 객체의 윤곽선과 객체 식별 정보를 추출한다.
깊이정보 인식모듈(220)은 객체에 설정된 제1 컨트롤 포인트 이동에 따라 깊이 정보가 설정되면 변화된 Z값을 객체의 깊이 정보로 인식한다.
구체적으로, 깊이정보 인식모듈(220)은 사용자 입력부(110)를 컨트롤 포인트 설정 신호를 입력받아 주 객체에 한 지점(point)을 선택하여 컨트롤 포인트를 설정한다.
컨트롤 포인트는 깊이 정보를 입력 또는 변화시킬 수 있는 제어점을 의미하며, 3차원 공간에 Z좌표를 변화시키는 제어점으로 사용되므로 Z 컨트롤 포인트와 동일한 의미로 사용한다.
볼륨정보 인식모듈(230)은 깊이 정보가 인식된 객체에 제2 컨트롤 포인트를 설정하고 제2 컨트롤 포인트를 Z축으로 이동시켜 변화된 제2 컨트롤 포인트와 객체의 윤곽선을 곡면으로 연결하여 볼륨 정보를 인식한다.
즉, 제1 컨트롤 포인트 이동에 의해 xy 평면상에 위치한 객체의 깊이 정보가 z1으로 변화되어 높이가 z1 인 평면에 객체가 투영되며, 투영된 객체에 제2 컨트롤 포인트를 설정하고 불륨 정보를 z2로 변화시키면 z1 인 평면에 객체가 투영된 객체의 윤곽선과 이동된 제2 컨트롤 포인트 z2가 곡면으로 연결되어 객체의 각 영역의 볼륨 정보가 인식된다.
깊이 맵 생성모듈(240)은 객체의 깊이 정보와 볼륨 정보를 인식하여 깊이 맵을 생성한다.
도 8은 본 발명의 실시예에 따른 영상 변환 장치의 작업 화면의 제2 표시 상태도이다.
제2 표시 상태도에 따르면, 도 8에 도시한 바와 같이, xy 평면 상에 표시된 2차원 영상의 물방울을 객체로 선택하고, 물방울에 제1 컨트롤 포인트를 설정하고, 제1 컨트롤 포인트를 z1으로 이동시키면, 깊이 정보는 z1으로 변화되고, 3차원 공간에 높이가 z1인 평면에 가상의 물방울(A)이 투영된다. 다음으로, z1인 평면에 투영된 물방울(A)에 제2 컨트롤 포인트를 설정하여 높이를 z2로 이동시키면, 이동된 제2 컨트롤 포인트와 z1인 평면에 투영된 물방울의 윤곽선이 곡면(a)으로 연결되어 물방울의 볼륨 정보가 인식된다.
따라서, 입체감이 있는 객체는 깊이 정보뿐만 아니라 볼륨 정보를 함께 설정할 수 있으므로, 3차원 영상으로 렌더링시 입체감을 더욱 생생하게 표현할 수 있다.
자동 접지기능을 사용하는 경우
다음으로, 자동 접지기능을 사용하는 경우, 사용자 입력부(110)는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 자동 접지기능 선택 신호를 제어 신호로 입력한다.
깊이 맵 생성부(120)는 제어 신호에 따라 2차원 영상에서 적어도 둘 이상의 객체를 선택하고 컨트롤 포인트 설정 신호가 입력되면 선택한 하나의 객체(이하, '제1 객체'라고 함)에 컨트롤 포인트를 설정하고 컨트롤 포인트 이동에 따라 제1 객체의 깊이 정보를 인식한다.
깊이 맵 생성부(120)는 제1 객체와 이웃하는 다른 객체(이하, '제2 객체'라고 함)를 선택하여 자동 접지기능을 설정하거나, 기 선택된 이웃하는 다른 객체(이하, '제2 객체'라고 함)에 자동 접지기능을 설정한다.
깊이 맵 생성부(120)는 자동 접지기능이 설정되면, 깊이 정보가 설정된 제1 객체와 제2 객체의 경계면을 서로 연결한다. 즉, 제1 객체와 접하는 제2 객체의 경계면의 깊이 정보가 제1 객체의 깊이 정보로 자동 변경되고, 제1 객체와 접하지 않은 제2 객체의 다른 경계면은 깊이 정보가 설정되지 않은 상태로 유지된다.
따라서, 제2 객체의 깊이 정보가 자동 접지기능이 설정되기 이전의 깊이 정보에서부터 제1 객체의 깊이 정보까지 순차적으로 변화되도록 설정된다.
깊이 맵 생성부(120)는, 도 2에 도시한 바와 같이, 객체정보 추출모듈(210), 깊이정보 인식모듈(220), 및 깊이 맵 생성모듈(240)을 포함하여 구성된다.
객체정보 추출모듈(210)은 2차원 영상으로부터 선택된 객체의 윤곽선과 객체 식별 정보를 추출한다.
깊이정보 인식모듈(220)은 객체에 설정된 컨트롤 포인트 이동에 따라 깊이 정보가 설정되면 변화된 Z값을 객체의 깊이 정보로 인식한다.
구체적으로, 깊이정보 인식모듈(220)은 사용자 입력부(110)를 컨트롤 포인트 설정 신호를 입력받아 주 객체에 한 지점(point)을 선택하여 컨트롤 포인트를 설정한다.
컨트롤 포인트는 깊이 정보를 입력 또는 변화시킬 수 있는 제어점을 의미하며, 3차원 공간에 Z좌표를 변화시키는 제어점으로 사용되므로 Z 컨트롤 포인트와 동일한 의미로 사용한다.
깊이정보 인식모듈(220)은 이동된 컨트롤 포인트의 Z값을 제1 객체의 깊이 정보로 인식하고, 제2 객체에 자동 접지기능이 설정되면 제2 객체와 제1 객체가 접하는 영역의 깊이 정보가 일치하도록 제2 객체의 깊이 정보를 인식한다.
이 맵 생성모듈(240)은 객체의 깊이 정보와 볼륨 정보를 인식하여 깊이 맵을 생성한다.
도 9는 본 발명의 실시예에 따른 영상 변환 장치의 작업 화면의 제3 표시 상태도이다.
제3 표시 상태도에 따르면, 도 9에 도시한 바와 같이, xy 평면 상에 표시된 2차원 영상의 사람 얼굴(A)과 팔(B)을 각각 제1 객체, 제2 객체로 선택하고, 사람 얼굴(A)에 컨트롤 포인트를 설정하고, 컨트롤 포인트를 z1으로 이동시키면, 깊이 정보는 z1으로 변화되고, 3차원 공간에 높이가 z1인 평면에 가상의 사람 얼굴(A')이 투영된다. 다음으로, 사람 얼굴(A)과 접한 팔(B)에 자동 접지기능을 설정하면, 사람 얼굴(A)과 접하는 팔(B)의 테두리 부분은 깊이 정보가 z1으로 인식되고, 사람 얼굴과 접하지 않는 팔의 테두리 부분은 원래의 깊이 정보인 "0"(xy 평면)으로 인식되어 3차원 공간에 가상의 팔(B')이 투영된다.
따라서, 객체의 각 구성부분의 깊이 정보가 순차적으로 변화되도록 함께 설정할 수 있으므로, 3차원 영상으로 렌더링시 입체감을 더욱 생생하게 표현할 수 있다.
도 3은 본 발명의 다른 측면에 따른 영상 변환 방법의 흐름도이다.
영상 변환 장치에서 2차원 영상을 3차원 영상으로 렌더링하기 위한 영상 변환 방법은, 도 3에 도시한 바와 같이, 2차원 영상을 3차원 공간에 표시하고(S310), 2차원 영상에서 객체를 선택하고 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력한다(S320).
다음으로, 제어 신호에 따라 객체를 선택하고 선택한 객체의 깊이 정보를 인식하여 깊이 맵을 생성하고(S330), 깊이 맵에 따라 2차원 영상을 3차원 영상으로 렌더링한다(S340).
도 4는 본 발명의 다른 측면에 따른 영상 변환 방법의 제1 실시예에 따른 흐름도이고, 도 5는 본 발명의 다른 측면에 따른 영상 변환 방법의 제2 실시예에 따른 흐름도이고, 도 6은 본 발명의 다른 측면에 따른 영상 변환 방법의 제3 실시예에 따른 흐름도이다.
제1 실시예에 따르면, 도 4에 도시한 바와 같이, 영상 변환 방법은 2차원 영상을 3차원 공간에 표시하고(S410), 객체 선택 신호, 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호를 제어 신호로 입력한다(S420).
다음으로, 둘 이상의 객체를 주 객체, 종속 객체로 설정하고 주 객체와 종속 객체를 종속관계로 설정하여 하나의 그룹으로 관리한다(S430). 주 객체 및 종속 객체 설정은 사용자가 직접 설정하거나 또는 객체의 포함 관계에 따라 자동 설정할 수 있다.
주 객체에 컨트롤 포인트를 설정하면(S440) 그룹에 대한 컨트롤 포인트로 인식하고(S450), 컨트롤 포인트를 이동시켜 깊이 정보를 입력하면(S460), 입력된 깊이 정보를 그룹에 포함된 객체 전체의 깊이 정보로 인식하여 깊이 맵을 생성한다(S470).
제2 실시예에 따르면, 도 5에 도시한 바와 같이, 2차원 영상을 3차원 공간에 표시하고(S510), 객체 선택 신호, 제1, 제2 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호, 볼륨 정보 입력 신호를 제어 신호로 입력한다(S520).
다음으로, 객체를 선택하고 선택된 객체에 제1 컨트롤 포인트를 설정하고(S530), 제1 컨트롤 포인트를 이동시켜 객체의 깊이 정보를 인식하고(S540), 동일한 객체에 제2 컨트롤 포인트를 설정하고(S550), 제2 컨트롤 포인트를 이동시켜 객체의 볼륨 정보를 인식하여 깊이 맵을 생성한다(S560).
따라서, 객체의 깊이 정보 뿐만 아니라 볼륨 정보까지 함께 설정할 수 있으므로 입체감이 더욱 생생하게 표현되도록 3차원 영상을 렌더링할 수 있다.
제3 실시예에 따르면, 도 6에 도시한 바와 같이, 2차원 영상을 3차원 공간에 표시하고(S610), 객체 선택 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호, 자동 접지기능 선택 신호를 제어 신호로 입력한다(S620).
먼저, 2차원 영상에서 제1 객체를 선택하고(S630), 제1 객체에 컨트롤 포인트를 설정하여(S640), 컨트롤 포인트를 이동시켜 제1 객체의 깊이 정보를 인식한다(S650).
다음으로, 제1 객체와 인접한 제2 객체를 선택하고(S660), 제2 객체에 자동 접지기능을 설명하면(S670), 제2 객체의 깊이 정보가 변화되고 이에 따라 깊이 맵이 생성된다(S680).
따라서, 인접한 객체들 사이의 연속적인 입체감을 표현할 수 있다.
본 발명의 또 다른 측면에 따르면, 영상 변환 장치에서 설치되고, 2차원 영상을 3차원 공간에 표시하는 단계, 2차원 영상에서 객체를 선택하고 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 단계, 제어 신호에 따라 객체를 선택하고 선택한 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 단계, 및 깊이 맵에 따라 2차원 영상을 3차원 영상으로 렌더링하는 단계를 포함하는 영상 변환 방법이 프로그램으로 기록되고 전자 장치에서 판독 가능한 기록매체가 제공된다.
영상 변환 방법이 프로그램으로 작성 가능하며, 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 프로그래머에 의하여 용이하게 추론될 수 있다.
또한 영상 변환 방법의 프로그램은 전자장치가 읽을 수 있는 정보저장매체(Readable Medium)에 저장되고, 전자장치에 의하여 읽혀지고 실행됨으로써 2차원 영상을 더욱 입체감있게 3차원 영상으로 렌더링할 수 있다.
본 발명에 따라 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치는 프로세서, 메모리, 저장 장치 및 입/출력 장치를 컴포넌트로서 포함할 수 있으며, 이들 컴포넌트는 예컨대 시스템 버스를 이용하여 상호 접속될 수 있다.
상기 프로세서는 본 장치 내에서의 실행을 위한 명령을 처리할 수 있다. 일 구현예에서, 이 프로세서는 싱글 쓰레드(Single-threaded) 프로세서일 수 있으며, 다른 구현예에서 본 프로세서는 멀티 쓰레드(Multi-threaded) 프로세서일 수 있다. 본 프로세서는 메모리 또는 저장 장치 상에 저장된 명령을 처리하는 것이 가능하다.
한편, 메모리는 본 장치 내에서 정보를 저장한다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현예에서, 메모리는 휘발성 메모리 유닛일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛일 수도 있다. 상술한 저장 장치는 본 장치에 대한 대용량 저장부를 제공할 수 있다. 일 구현예의 경우, 저장 장치는 컴퓨터로 판독 가능한 매체이다. 다양한 서로 다른 구현예에서, 저장 장치는 예컨대 하드디스크 장치, 광학디스크장치, 혹은 어떤 다른 대용량 저장 장치를 포함할 수도 있다.
상술한 입/출력 장치는 본 발명에 따른 장치에 대한 입/출력 동작을 제공한다. 일 구현예에서, 입/출력 장치는 예컨대 이더넷 카드와 같은 하나 이상의 네트워크 인터페이스 장치, 예컨대 RS-232 포트와 같은 직렬 통신 장치 및/또는 예컨대 802.11 카드와 같은 무선 인터페이스 장치를 포함할 수 있다. 다른 구현예에서, 입/출력 장치는 다른 입/출력 장치로 출력 데이터를 전송하고 입력 데이터를 수신하도록 구성된 드라이버 장치, 예컨대 키보드, 프린터 및 디스플레이 장치를 포함할 수 있다.
본 발명에 따른 장치는 하나 이상의 프로세서로 하여금 앞서 설명한 기능들과 프로세스를 수행하도록 하는 명령에 의하여 구동될 수 있다. 예를 들어 그러한 명령으로는, 예컨대 JavaScript나 ECMAScript 명령 등의 스크립트 명령과 같이 해석되는 명령이나 실행 가능한 코드 혹은 컴퓨터로 판독 가능한 매체에 저장되는 기타의 명령이 포함될 수 있다. 나아가 본 발명에 따른 장치는 서버 팜(Sever Farm)과 같이 네트워크에 걸쳐서 분산형으로 구현될 수 있으며, 혹은 단일의 컴퓨터 장치에서 구현될 수도 있다.
비록 본 명세서와 도면에서는 예시적인 장치 구성을 기술하고 있지만, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.
"처리 시스템", "처리 장치" 및 "하위 시스템"이라는 용어는 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 기구, 장치 및 기계를 포괄한다. 처리 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.
본 발명에 따른 장치에 탑재되고 본 발명에 따른 방법을 실행하는 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램이 파일 시스템의 파일에 반드시 대응해야 하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.
컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함한다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.
본 명세서에서 설명한 주제의 구현물은 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 데이터 통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.
본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.
본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.
본 발명은 2차원 영상을 3차원 영상으로 변환하기 위해 사용자가 2차원 영상에서 객체를 선택하여 깊이 정보를 입력하고자 하는 경우, 다수의 객체를 선택하고 객체 사이의 종속관계, 깊이 정보 관계를 설정하도록 하는 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체를 제공하는 데에 이용할 수 있다.

Claims (20)

  1. 2차원 영상에서 객체를 선택하고 상기 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 사용자 입력부;
    상기 입력된 제어 신호에 따라 선택된 객체의 깊이 정보가 인식되어 깊이 맵을 생성하는 깊이 맵 생성부;
    상기 2차원 영상, 상기 선택된 객체 및 상기 설정된 깊이 정보를 갖는 가상의 객체를 디스플레이하는 디스플레이부; 및
    상기 입력된 제어 신호에 따라 선택된 객체 또는 객체에 포함된 영역의 깊이 정보가 설정되고 상기 설정된 깊이 정보를 갖는 가상의 객체를 3차원 공간에 투영하여 표시하도록 제어하는 영상 제어부;를 포함하는 영상 변환 장치.
  2. 제1항에 있어서,
    상기 제어 신호는 2차원 영상에서 적어도 하나의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호, 볼륨 정보 입력 신호, 또는 자동 접지기능 선택 신호 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 변환 장치.
  3. 제2항에 있어서,
    상기 사용자 입력부는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호, 및 깊이 정보 입력 신호를 제어 신호로 입력하고,
    상기 깊이 맵 생성부는 상기 제어 신호에 따라 둘 이상의 객체를 선택하여 종속관계로 설정하여 하나의 그룹으로 관리하고, 주 객체에 설정된 컨트롤 포인트를 상기 주 객체가 포함된 그룹의 컨트롤 포인트로 인식하고 상기 컨트롤 포인트를 이동시켜 깊이 정보를 입력하면 상기 입력된 깊이 정보를 상기 그룹에 포함되는 객체의 깊이 정보로 인식하여 깊이 맵을 생성하는 것을 특징으로 하는 영상 변환 장치.
  4. 제3항에 있어서,
    상기 깊이 맵 생성부는,
    상기 둘 이상의 객체를 선택하고 종속관계로 설정하여 하나의 그룹으로 관리하는 객체정보 추출모듈;
    상기 주 객체에 설정된 컨트롤 포인트 이동에 따라 깊이 정보가 설정되면 상기 그룹에 포함된 종속 객체의 깊이 정보도 동일하게 설정하는 깊이정보 인식모듈; 및
    상기 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 깊이 맵 생성모듈;을 포함하는 영상 변환 장치.
  5. 제4항에 있어서,
    상기 객체정보 추출모듈은,
    상기 선택된 둘 이상의 객체 중 다른 객체들을 포함하는 객체를 주 객체로 설정하고, 상기 주 객체에 포함되는 다른 객체들을 종속 객체로 설정하는 것을 특징으로 하는 영상 변환 장치.
  6. 제2항에 있어서,
    상기 사용자 입력부는 객체를 선택하는 객체 선택 신호, 제1 컨트롤 포인트 설정 신호, 제2 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 볼륨 정보 입력 신호를 제어 신호로 입력하고,
    상기 깊이 맵 생성부는 상기 제어 신호에 따라 객체를 선택하고 선택된 객체에 제1 컨트롤 포인트를 설정하고 제1 컨트롤 포인트의 이동에 따라 상기 객체의 깊이 정보를 인식하고, 상기 객체에 제2 컨트롤 포인트를 설정하고 제2 컨트롤 포인트의 이동에 따라 상기 객체의 볼륨 정보를 인식하여 깊이 맵을 생성하는 것을 특징으로 하는 영상 변환 장치.
  7. 제6항에 있어서,
    상기 깊이 맵 생성부는,
    상기 제어 신호에 따라 객체를 선택하여 추출하는 객체정보 추출모듈;
    이동된 제1 컨트롤 포인트의 Z값을 상기 객체의 깊이 정보로 인식하는 깊이정보 인식모듈;
    이동된 제2 컨트롤 포인트의 Z값을 상기 객체의 볼륨 정보로 인식하고 상기 객체의 윤곽선 내 영역의 깊이 정보가 상기 제1 컨트롤 포인트로부터 상기 제2 컨트롤 포인트까지 순차적으로 변화되도록 인식하는 볼륨정보 인식모듈; 및
    상기 객체의 깊이 정보와 볼륨 정보에 따라 깊이 맵을 생성하는 깊이 맵 생성모듈;을 포함하는 것을 특징으로 하는 영상 변환 장치.
  8. 제2항에 있어서,
    상기 사용자 입력부는 적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 자동 접지기능 선택 신호를 제어 신호로 입력하고,
    상기 깊이 맵 생성부는 상기 제어 신호에 따라 제1 객체를 선택하고 선택된 제1 객체에 컨트롤 포인트를 설정하고 컨트롤 포인트의 이동에 따라 상기 제1 객체의 깊이 정보를 인식하고, 상기 제어 신호에 따라 제2 객체를 선택하고 선택된 제2 객체에 자동 접지기능을 설정하여 깊이 맵을 생성하는 것을 특징으로 하는 영상 변환 장치.
  9. 제8항에 있어서,
    상기 깊이 맵 생성부는,
    상기 제어 신호에 따라 객체를 선택하여 추출하는 객체정보 추출모듈;
    이동된 컨트롤 포인트의 Z값을 상기 제1 객체의 깊이 정보로 인식하고, 상기 제2 객체에 자동 접지기능이 설정되면 상기 제2 객체와 제1 객체가 접하는 영역의 깊이 정보가 일치하도록 상기 제2 객체의 깊이정보를 인식하는 깊이정보 인식모듈; 및
    상기 제1 객체와 제2 객체의 깊이 정보에 따라 깊이 맵을 생성하는 깊이 맵 생성모듈;을 포함하는 것을 특징으로 하는 영상 변환 장치.
  10. 제1항에 있어서,
    상기 깊이 맵에 따라 상기 2차원 영상에 대해 서로 다른 시차 정보를 갖는 좌측 영상과 우측 영상을 생성하고 상기 좌측 영상과 우측 영상을 조합하여 3차원 영상을 생성하는 3차원 영상 렌더링부를 더 포함하는 것을 특징으로 하는 영상 변환 장치.
  11. 영상 변환 장치에서 2차원 영상을 3차원 영상으로 렌더링하는 영상 변환 방법에 있어서,
    (a) 2차원 영상을 3차원 공간에 표시하는 단계;
    (b) 상기 2차원 영상에서 객체를 선택하고 상기 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 단계;
    (c) 상기 제어 신호에 따라 객체를 선택하고 선택한 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 단계; 및
    (d) 상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계;를 포함하는 영상 변환 방법.
  12. 제11항에 있어서,
    상기 (b) 단계는,
    적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 선택된 객체 사이의 종속관계 설정 신호, 컨트롤 포인트 설정 신호 및 깊이 정보 입력 신호를 제어 신호로 입력하는 것을 특징으로 하는 영상 변환 방법.
  13. 제12항에 있어서,
    상기 (c) 단계는,
    (c-1) 상기 제어 신호에 따라 둘 이상의 객체를 선택하여 종속관계로 설정하여 하나의 그룹으로 관리하는 단계;
    (c-2) 상기 그룹으로 관리되는 객체 중 주 객체에 설정된 컨트롤 포인트를 상기 그룹의 컨트롤 포인트로 인식하는 단계; 및
    (c-3) 상기 컨트롤 포인트를 이동시켜 깊이 정보를 입력하면 상기 입력된 깊이 정보를 상기 그룹에 포함된 객체의 깊이 정보로 인식하여 깊이 맵을 생성하는 단계;를 포함하여 구성되는 것을 특징으로 하는 영상 변환 방법.
  14. 제11항에 있어서,
    상기 (b) 단계는,
    객체를 선택하는 객체 선택 신호, 제1 컨트롤 포인트 설정 신호, 제2 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 볼륨 정보 입력 신호를 제어 신호로 입력하는 것을 특징으로 하는 영상 변환 방법.
  15. 제14항에 있어서,
    상기 (c) 단계는,
    (c-1) 상기 제어 신호에 따라 객체를 선택하고 선택된 객체에 제1 컨트롤 포인트를 설정하는 단계;
    (c-2) 상기 제1 컨트롤 포인트를 이동시켜 상기 객체의 깊이 정보를 인식하는 단계;
    (c-3) 상기 객체에 제2 컨트롤 포인트를 설정하는 단계; 및
    (c-4) 상기 제2 컨트롤 포인트를 이동시켜 상기 객체의 볼륨 정보를 인식하여 깊이 맵을 생성하는 단계;를 포함하여 구성되는 영상 변환 방법.
  16. 제15항에 있어서,
    상기 (c-2) 단계는 제1 컨트롤 포인트의 Z값을 상기 객체의 깊이 정보로 인식하고,
    상기 (c-4) 단계는 제2 컨트롤 포인트의 Z값을 상기 객체의 볼륨 정보로 인식하고, 상기 객체의 윤곽선 내 영역의 깊이 정보가 상기 제1 컨트롤 포인트로부터 상기 제2 컨트롤 포인트까지 순차적으로 변화되도록 인식하여 깊이 맵을 생성하는 것을 특징으로 하는 영상 변환 방법.
  17. 제11항에 있어서,
    상기 (b) 단계는,
    적어도 둘 이상의 객체를 선택하는 객체 선택 신호, 컨트롤 포인트 설정 신호, 깊이 정보 입력 신호 및 자동 접지기능 선택 신호를 제어 신호로 입력하는 것을 특징으로 하는영상 변환 방법.
  18. 제17항에 있어서,
    상기 (c) 단계는,
    (c-1) 상기 제어 신호에 따라 제1 객체를 선택하고 선택된 제1 객체에 컨트롤 포인트를 설정하는 단계;
    (c-2) 상기 컨트롤 포인트를 이동시켜 제1 객체의 깊이 정보를 인식하는 단계; 및
    (c-3) 상기 제어 신호에 따라 제2 객체를 선택하고 선택된 제2 객체에 자동 접지기능을 설정하여 깊이 맵을 생성하는 단계;를 포함하여 구성되는 영상 변환 방법.
  19. 제18항에 있어서,
    상기 (c-3) 단계는 상기 제2 객체에 자동 접지기능이 설정되면 상기 제2 객체와 제1 객체가 접하는 영역의 깊이 정보가 일치하도록 상기 제2 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 것을 특징으로 하는 영상 변환 방법.
  20. 영상 변환 장치에서 설치되고,
    2차원 영상을 3차원 공간에 표시하는 단계;
    상기 2차원 영상에서 객체를 선택하고 상기 객체의 깊이 정보를 설정하기 위한 제어 신호를 입력하는 단계;
    상기 제어 신호에 따라 객체를 선택하고 선택한 객체의 깊이 정보를 인식하여 깊이 맵을 생성하는 단계; 및
    상기 깊이 맵에 따라 상기 2차원 영상을 3차원 영상으로 렌더링하는 단계;를 포함하는 영상 변환 방법이 프로그램으로 기록되고 전자 장치에서 판독 가능한 기록매체.
PCT/KR2012/009002 2011-11-28 2012-10-30 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체 WO2013081304A1 (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020110124858A KR20130058871A (ko) 2011-11-28 2011-11-28 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
KR10-2011-0124858 2011-11-28
KR1020110125868A KR101330523B1 (ko) 2011-11-29 2011-11-29 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
KR1020110125867A KR101390961B1 (ko) 2011-11-29 2011-11-29 2차원 영상을 3차원 영상으로 변환하는 영상 변환 시스템과 방법 및 그에 대한 기록매체
KR10-2011-0125867 2011-11-29
KR10-2011-0125868 2011-11-29

Publications (1)

Publication Number Publication Date
WO2013081304A1 true WO2013081304A1 (ko) 2013-06-06

Family

ID=48535715

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/009002 WO2013081304A1 (ko) 2011-11-28 2012-10-30 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체

Country Status (1)

Country Link
WO (1) WO2013081304A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016072559A1 (ko) * 2014-11-05 2016-05-12 전자부품연구원 3d 콘텐츠 제작 방법 및 시스템
KR20160054157A (ko) * 2014-11-05 2016-05-16 전자부품연구원 뎁스맵 등심선 생성 방법 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000041329A (ko) * 1998-12-22 2000-07-15 박남은 입체 영상 이미지 변환방법 및 그 장치
JP2001526477A (ja) * 1997-12-05 2001-12-18 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
JP2009290905A (ja) * 2009-09-10 2009-12-10 Panasonic Corp 表示装置および表示方法
KR20090129175A (ko) * 2008-06-12 2009-12-16 성영석 영상 변환 방법 및 장치
JP2011239398A (ja) * 2010-05-03 2011-11-24 Thomson Licensing 設定メニューを表示する方法及び対応するデバイス

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001526477A (ja) * 1997-12-05 2001-12-18 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術
KR20000041329A (ko) * 1998-12-22 2000-07-15 박남은 입체 영상 이미지 변환방법 및 그 장치
KR20090129175A (ko) * 2008-06-12 2009-12-16 성영석 영상 변환 방법 및 장치
JP2009290905A (ja) * 2009-09-10 2009-12-10 Panasonic Corp 表示装置および表示方法
JP2011239398A (ja) * 2010-05-03 2011-11-24 Thomson Licensing 設定メニューを表示する方法及び対応するデバイス

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016072559A1 (ko) * 2014-11-05 2016-05-12 전자부품연구원 3d 콘텐츠 제작 방법 및 시스템
KR20160054157A (ko) * 2014-11-05 2016-05-16 전자부품연구원 뎁스맵 등심선 생성 방법 및 시스템
KR101709974B1 (ko) * 2014-11-05 2017-02-27 전자부품연구원 뎁스맵 등심선 생성 방법 및 시스템

Similar Documents

Publication Publication Date Title
CN111090255A (zh) 可编程逻辑控制器和主单元
EP3678101A2 (en) Ar-enabled labeling using aligned cad models
WO2016053067A1 (en) 3-dimensional model generation using edges
WO2011149160A1 (ko) 애니메이션 저작 시스템 및 애니메이션 저작 방법
JP2017094406A (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
WO2013118955A1 (ko) 깊이 맵 보정 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
WO2021242050A1 (ko) 구강 이미지의 처리 방법, 그에 따른 동작을 수행하는 구강 진단 장치, 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2018074821A1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
WO2015084034A1 (ko) 이미지들을 표시하기 위한 방법 및 장치
WO2021133053A1 (ko) 전자 장치 및 그의 제어 방법
WO2013081304A1 (ko) 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치, 방법 및 그에 대한 기록매체
CN109145272A (zh) 文本渲染和布局方法、装置、设备和存储介质
JP7273935B2 (ja) 外部設定機器、ロギング設定方法およびプログラム
WO2013039330A2 (ko) 의료영상에서의 세그멘테이션 방법 및 그 장치
WO2019124818A1 (ko) 혼합 현실 서비스 제공 방법 및 시스템
WO2015034131A2 (ko) 공간 제스처 인식 장치 및 방법
JP7173826B2 (ja) プログラマブルロジックコントローラシステム、プログラム作成支援装置およびコンピュータプログラム
WO2013077546A1 (ko) 입체 영상의 장면 전환 검출 장치 및 방법
WO2020116685A1 (ko) 표준 얼굴 모델 기반 얼굴 특징점 추정 영상 처리장치 및 표준 얼굴 모델 기반 얼굴 특징점 추정 영상 처리를 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 물리적 기록매체
WO2018194340A1 (ko) 적층형 홀로그램용 콘텐츠 제공방법 및 제공장치
WO2013081281A1 (ko) 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치와 방법 및 그에 대한 기록매체
JP2020067751A (ja) プログラマブルロジックコントローラシステム、プログラム作成支援装置およびコンピュータプログラム
JP2015133051A (ja) 基板解析プログラム、情報処理装置及び基板解析方法
WO2023224212A1 (ko) 사용자에 의한 3차원 객체 편집을 용이하게 하는 영상처리방법 및 영상처리장치
Wang et al. Study on virtual coordinate measuring machine based on augmented virtuality

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12854301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12854301

Country of ref document: EP

Kind code of ref document: A1