WO2017098999A1 - 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム - Google Patents

情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム Download PDF

Info

Publication number
WO2017098999A1
WO2017098999A1 PCT/JP2016/085827 JP2016085827W WO2017098999A1 WO 2017098999 A1 WO2017098999 A1 WO 2017098999A1 JP 2016085827 W JP2016085827 W JP 2016085827W WO 2017098999 A1 WO2017098999 A1 WO 2017098999A1
Authority
WO
WIPO (PCT)
Prior art keywords
base
information
image
person
display
Prior art date
Application number
PCT/JP2016/085827
Other languages
English (en)
French (fr)
Inventor
杢屋 銑一
博 松下
中島 靖雅
Original Assignee
セイコーエプソン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セイコーエプソン株式会社 filed Critical セイコーエプソン株式会社
Priority to JP2017555037A priority Critical patent/JPWO2017098999A1/ja
Publication of WO2017098999A1 publication Critical patent/WO2017098999A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Definitions

  • the present invention relates to a technique for displaying an image of another site.
  • Patent Document 1 a video conference system in which a plurality of bases are connected via a network.
  • images of participants at a plurality of other sites are displayed on the monitor of the own site.
  • Patent Document 2 a technique is known that generates a three-dimensional image of the space on the imaging side and displays a two-dimensional image corresponding to the viewpoint position on the display.
  • Patent Document 2 in order to conduct a conversation in a state in which the line of sight with the communication partner is in line, there is known a technology for displaying images taken from a large number of directions in accordance with the line of sight of the viewer .
  • Patent Document 1 the images of the participants captured by cameras at a plurality of other bases are transferred to the own base, and the images of the participants of a plurality of other bases are displayed on the monitor of the own base.
  • the sense of reality is poor because a specific participant can not perform a pointing operation such as pointing his eyes to another participant or pointing at a specific participant.
  • a technique for easily displaying images of a plurality of other locations having a sense of reality on the display device of the own location is desired. Further, in the prior art, cost reduction, resource saving, facilitation of manufacture, improvement of usability, etc. are desired. Such a subject is common to the technique which displays not only a video conference system but the image of several other bases in an own base.
  • the present invention has been made to solve at least a part of the above-described problems, and can be realized as the following modes or application examples.
  • an information processing apparatus communicates with a plurality of other bases, and is other base source information for displaying another base image including a person image of the other base on the display screen of the display device of the own base,
  • a communication unit for receiving other base source information including other base line-of-sight information on the line of sight of a person at a base and information on other base person information including information representing a person at the other base, and the other on the display screen of the display device
  • a display image generation unit that acquires display position information indicating a display position of a base image, and generates the other base image from the other base person information based on the other base gaze information and the display position information;
  • a display control unit for displaying the other base image on the device.
  • the display image generation unit is a person and others of the own base displayed on the display screen of the display device disposed at the specific other base based on the other base line-of-sight information.
  • the target person that the person at the specific other base is looking at is specified, and the person at the specific other base is the direction of the target person on the display screen of the own base
  • the other base image facing the user may be generated from the other base person information. According to this mode, since it is possible to display another base image on the display screen of the own base, it is possible to display the other base image in which the person of the other base points in the direction of the target person viewed on the display screen of each base. Base image can be generated.
  • the information representing the person at the other base is a base original image including a person image of the other base
  • the display image generation unit is configured to display the display screen of the own base
  • the other base image may be generated from the other base original image in which the display area becomes larger from one side where the target person is located to the opposite side. According to this aspect, by increasing the display area of the other base image from one side to the opposite side, it is possible to generate the other base image that faces the direction of the target person.
  • the information representing the person at the other site is a three-dimensional model of the person at the other site
  • the display image generation unit determines the specific one based on the other site gaze information. From the person of the own base and the person of the other said other bases displayed on the display screen of the display device arranged at the other bases, the target person that the person of the other of the specified other bases is looking at is specified.
  • the other base image may be generated by rotating the three-dimensional model such that a person at the specific other base points in the direction of the target person. According to this aspect, by rotating the three-dimensional model, it is possible to easily generate another base image that points in the direction of the target person.
  • the display control unit further includes an input unit, and the display control unit displays the display screen of the base based on the new display position information input to the input unit.
  • the display position of the other base image may be changed, and the display image generation unit may generate the other base image by rotating the three-dimensional model based on the new display position information. According to this aspect, it is possible to generate the other base image by rotating the three-dimensional model based on the new display position information.
  • the communication unit communicates with an imaging unit disposed at the own base, receives a captured image imaged by the imaging unit, and the information processing device further Line-of-sight information generation unit for generating self-base point-of-sight information regarding the line-of-sight of a person at a base, and personal information generation for generating self-base personal information including information representing a person at the self-base based on the captured image
  • the communication unit may transmit self-base source information including the self-base person information and the self-base line-of-sight information to the plurality of other bases.
  • the information processing apparatus of the other base can generate the other base image of the own base source information including the own base person information and the own base gaze information.
  • the self-base line-of-sight information is one of self-base identification information for identifying the self-base and a plurality of other base images displayed on the display screen of the self-base. It may include at least specific other base identification information for identifying the specific other base image indicated by the line of sight of the person at the own base. According to this aspect, since the self-base line-of-sight information includes self-base identification information, it is possible to easily specify that the self-base line-of-sight information is generated by the self-base.
  • the person information generation unit may generate a three-dimensional model of an object including a person at the self-base as information representing a person at the self-base based on the captured image. good. According to this aspect, it is possible to generate information representing a person at the own site as a three-dimensional model.
  • the communication unit receives depth information of the imaging target represented by the captured image
  • the person information generation unit is configured to receive the depth information based on the captured image and the depth information.
  • You may generate a dimensional model.
  • the three-dimensional model can be generated based on the captured image and the depth information.
  • the present invention can also be realized as an apparatus including one or more elements among a plurality of elements of a communication unit, a display image generation unit, and a display control unit. That is, this device may or may not have the communication unit. Further, this device may or may not have a display image generation unit. Further, this device may or may not have a display control unit. According to such various embodiments, it is possible to solve at least one of various problems such as downsizing of the device, cost reduction, resource saving, facilitation of manufacture, and improvement of usability. Also, some or all of the technical features of each form of the information processing apparatus described above can be applied to this apparatus or method.
  • the present invention can be realized in various forms, and realizes an information processing apparatus, an information processing system including the information processing apparatus, a control method of the information processing apparatus, and these apparatuses, systems, and functions of the method.
  • the computer program can be realized in the form of a computer program, a storage medium storing the computer program, and the like.
  • FIG. 1 is a view for explaining a video conference system 10 as an embodiment of the present invention.
  • the video conference system 10 is a system in which information processing apparatuses 60 disposed at each of a plurality of bases 20A, 20B, 20C, and 20X are connected via the Internet INT. Send and receive the participants 22A, 22B, 22C, 22X videos of the other sites displayed on the display device of each site 20A, 20B, 20C, 20X and the audio of the other sites output by the audio output unit A video conference will be held.
  • Each information processing apparatus 60 can transmit and receive data via the Internet INT.
  • the base 20X is set as the own base
  • the bases 20A, 20B, and 20C are set as the other bases 20Y.
  • the information processing apparatus 60 of the own site 20X is also referred to as "own site information processing apparatus 60X"
  • the information processing apparatus 60 of the other site 20Y is also referred to as "other site information processing apparatus 60Y”.
  • the bases 20A, 20B, 20C, and 20X are, for example, meeting rooms and classrooms.
  • the number of bases is not limited to four, and may be less than four or five or more.
  • the own base information processing apparatus 60X receives the other base information DRY and the voice information SDY from the other base information processing apparatus 60Y.
  • the other base source information DRY is information used to display another base image described later on the own base display device 60X.
  • the other base source information DRY includes the other base line-of-sight information DSY and the other base person information DPY.
  • the other base line-of-sight information DSY includes information on the lines of sight of the participants 22A, 22B, and 22C of the other bases 20A, 20B, and 20C.
  • the other base person information DPY includes information representing the participants 22A, 22B and 22C of the other bases 20A, 20B and 20C, and identification information for identifying the other bases 20A, 20B and 20C.
  • the information representing the participants 22A, 22B, and 22C may be a three-dimensional model including the faces of the participants 22A, 22B, and 22C generated from captured images of the participants 22A, 22B, and 22C, or The captured image may include the faces of the persons 22A, 22B, and 22C.
  • the information representing the participants 22A, 22B, 22C is a three-dimensional model including the faces of the participants 22A, 22B, 22C.
  • the other base source information DRY and the voice information SDY are synchronized with each other.
  • FIG. 2 is a block diagram showing the functions of the information processing system 100 disposed at the site 20.
  • FIG. 3 is a front view of the display device 70.
  • the information processing system 100 of each of the bases 20A, 20B, 20C, and 20X has the same configuration.
  • the information processing system 100 of the base 20X will be described as a representative.
  • the information processing system 100 receives the other base line-of-sight information DSY and the three-dimensional model of the participant 22Y generated by the information processing apparatus 60 of the other base 20Y, and the information processing apparatus 60X of the own base 20X receives the other base line-of-sight information DSY
  • the other base image which is an image of the other base 20Y is displayed on the display screen of the display device 70 from the other base person information DPY including the three-dimensional model received based on the above.
  • the information processing system 100 may be realized as a partner computer (PC) or a doublet terminal.
  • the display device 70 of the information processing system 100 may be a display unit of a PC or tablet terminal, or may be a large flat panel display (FPD) or a projector separate from the PC or tablet terminal.
  • the information processing system 100 includes camera modules 50A and 50B as two imaging units, an information processing device 60, and a display device 70.
  • the code "50" is used.
  • the display device 70 includes a display screen 71 as a display unit configured of a liquid crystal panel or the like, and an audio output unit 76 that outputs audio.
  • a display screen 71 On the display screen 71, three base image display screens 23P1 to 23P3 along the horizontal direction of the display screen 71, and first to third other base images 72A, 72B, 72C which are images of the other bases 20A, 20B, 20C.
  • a virtual image 702 such as an oval table is displayed.
  • the first other base image 72A is generated by the own base information processing apparatus 60X based on the other base person information DPY received from the other base information processing apparatus 60Y of the other base 20A.
  • the second other base image 72B is generated by the own base information processing apparatus 60X based on the other base person information DPY received from the other base information processing apparatus 60Y of the other base 20B.
  • the third other base image 72C is generated by the own base information processing apparatus 60X based on the other base person information DPY received from the other base information processing apparatus 60Y of the other base 20C.
  • the first other base image 72A is a person image 22AI including the face of the participant 22A of the other base 20A.
  • the second other base image 72B is a person image 22BI including the face of the participant 22B of the other base 20B.
  • the third other base image 72C is a person image 22CI including the face of the participant 22C of the other base 20C.
  • the background image serving as the background of the person images 22AI to 22CI may be a real background image that is a background image of each of the bases 20A, 20B, and 20C, or a virtual background image generated by the self-base information processing apparatus 60X. Also good. That is, each of the other base images 72A to 72C may include a real background image.
  • the virtual background image may be, for example, a color image such as blue.
  • the “other base image 72Y” is used.
  • the display device 70 of the own site 20X is also referred to as “the own site display device 70X”
  • the display device 70 of the other site 20Y is also referred to as the “other site display device 70Y”.
  • the display position of the other base images 72A, 72B, 72C and the virtual image 702 on the display screen 71 can be changed by the participant 22X of the own base 20X inputting the display position to the information processing apparatus 60.
  • the other base images 72A, 72B, 72C are arranged on any of the three base image display screens 23P1 to 23P3.
  • the first other base image 72A is displayed on the base image display screen 23P1
  • the second other base image 72B is displayed on the base image display screen 23P2
  • the third other base image 72C is displayed on the base image display screen 23P3. It is done.
  • virtual images 702 are displayed below the respective images 72A, 72B, and 72C.
  • Each of the base image display screens 23P1, 23P2, and 23P3 has an outer shape as if the table 702 is surrounded. That is, the base image display screen 23P1 has a trapezoidal shape in which the right end is smaller than the left end. Also, the base image display screen 23P1 has a rectangular outer shape. In addition, the base image display screen 23P2 has a trapezoidal shape in which the left end is smaller than the right end. This can further enhance the realism of the video conference.
  • the first to third other base images 72A, 72B, 72C shown in FIG. 3 are images displayed in the following situations (1) to (3).
  • the first to third other base images 72A to 72C shown in FIG. 3 are generated by the own base information processing apparatus 60X and displayed on the display screen 71 of the own base display apparatus 70X. Be done.
  • the person image 22A1 of the first other base image 72A is displayed so as to face the person image 22BI of the second other base image 72B, and the person image 22BI of the second other base image 72B is a participant 22X of the own base 20X. It is displayed as facing, and the person image 22CI of the third base image 72C is displayed as facing the person image 22BI of the second other base image 72B.
  • the code "22IM" is used.
  • the two camera modules 50A and 50B are disposed on both sides in the width direction of the display screen 71.
  • the voice output unit 76 is a speaker that outputs voices received from the other sites 20A, 20B, and 20C.
  • the audio output unit 76 is disposed below the display screen 71.
  • the camera module 50A is disposed on the front left side of the participant 22X.
  • the camera module 50B is disposed on the front right side of the participant 22X. That is, the two camera modules 50A and 50B capture an area including the participant 22X from different directions.
  • each of the two camera modules 50A and 50B includes a camera 52, a depth sensor 54, and a microphone 56.
  • the camera 52 has a function of receiving and capturing light from the outside.
  • the captured image IMGX taken is transmitted to the own site information processing apparatus 60X.
  • the camera 52 captures an area including the face of the participant 22X of the own site 20X and the background of the face. In the present embodiment, it is assumed that the height of the camera 52 and the height of the line of sight of the participants 22X and 22Y coincide with each other at each of the bases 20X and 20Y.
  • the depth sensor 54 detects the distance to the imaging target imaged by the camera 52.
  • a method of detecting the distance using the depth sensor 54 for example, a method (TOF method) of detecting the distance based on the time when the light emitted from the light source is reflected by the object to be imaged and received by the light receiving unit A triangular ranging method based on the light emission position and the light reception position is used.
  • the depth information DDX indicating the distance to the imaging target detected by the depth sensor 54 is added to the captured image IMGX as additional information, and is transmitted to the self-base information processing apparatus 60X.
  • the microphone 56 converts sound into an electrical signal.
  • the audio information SDX as an electrical signal is transmitted to the own site information processing apparatus 60X in synchronization with the captured image IMGX.
  • the own site information processing apparatus 60X includes a communication unit 62, a storage unit 64, a CPU 66 as a control unit, and an input unit 65.
  • the communication unit 62, the storage unit 64, the CPU 66, and the input unit 65 are connected to one another via a bus.
  • the storage unit 64 has a ROM 642 and a RAM 644.
  • display position information LD representing display positions of the other base images 72A, 72B, 72C generated by the display control unit 663, and for the display image generation unit 662 to generate the other base images 72A, 72B, 72C.
  • a reference table TB to be referred to is stored.
  • the display position information LD represents the display position of the other base images 72A, 72B, 72C on the display screen 71 of the display device 70X.
  • the display position information LD may represent the display position by relative position information that represents the relative positional relationship between the other base images 72A, 72B, 72C on the display screen 71. For example, when the display position information LD is "P72A, P72B, P72C", other base images 72A, 72B, 72C are displayed sequentially from the left of the display screen 71, and the display position information LD is "P72A, P72C, P72B". If there is, other base images 72A, 72C, 72B are displayed in order from the left of the display screen 71.
  • the display position information LD is not limited to the above as long as the information indicates the relative positional relationship between the display positions of the other base images 72A, 72B, and 72C.
  • the information may be information representing the correspondence between the other base images 72A, 72B, 72C and the base image display screens 23P1, 23P2, 23P3 on which the other base images 72A, 72B, 72C are displayed.
  • the reference table TB includes a rotation matrix and a translation vector from the world coordinate system (Xw, Yw, Zw) to the viewpoint coordinate system (X, Y, Z) in accordance with the other site line-of-sight information DSY and the display position information LD. It is a table in which the transformation matrix and the transformation matrix from the viewpoint coordinate system (X, Y, Z) to the screen coordinate system (y, z) are associated.
  • the input unit 65 receives an input from the user.
  • the input unit 65 receives, for example, an input using a mouse, a keyboard, or voice.
  • the communication unit 62 includes an input / output interface conforming to the standards such as USB, LAN, Bluetooth, and IrDA, and transmits and receives data.
  • the communication unit 62 receives the other base information DRY and the voice information SDY by communicating with the plurality of other bases 20A, 20B, 20C and the other base information processing apparatus 60Y. Further, for example, the communication unit 62 acquires the captured image IMGX and the audio information SDX from the camera modules 50A and 50B.
  • the CPU 66 loads various programs stored in the ROM 642 into the RAM 644 and executes the programs to realize various processes to be described later. Although various processes described later are realized by operations based on various programs, at least a part of the various programs may be realized by a hardware configuration such as a circuit.
  • the CPU 66 functions as a display image generation unit 662, a display control unit 663, a gaze information generation unit 664, a person information generation unit 666, and a module control unit 668.
  • the display image generation unit 662 and the display control unit 663 constitute a function of displaying the other base image 72Y on the own base display device 70X and a function of outputting the audio information SDY of the other base 20Y.
  • the line-of-sight information generation unit 664, the person information generation unit 666, and the module control unit 668 constitute a function of generating other base information DRY and voice information SDY when the own base 20X functions as the other base 20Y. Do.
  • the display image generation unit 662 acquires the display position information LD stored in the RAM 644, and based on the other base line-of-sight information DSY and the display position information LD received from the other base information processing device 60Y, the other base person information DPY
  • the other base image 72Y to be displayed on the display device 70X by rotating the included three-dimensional model is generated.
  • the display control unit 663 controls the display device 70X. Specifically, the other base image 72Y and the virtual image 702 are displayed on the display screen 71 of the display device 70X based on the indicated position information LD.
  • the other base image 72Y is displayed on the display screen 71 at a predetermined frame rate.
  • the predetermined frame rate may be lower than the frame rate of the image transmitted from the other site 20Y.
  • the display control unit 663 causes the voice output unit 76 of the own base display device 70X to output the audio information SDY received from the other base information processing apparatus 60Y in synchronization with the other base image 72Y.
  • the generation process of the other base image 72Y performed by the display image generation unit 662 will be described later.
  • the personal information generation unit 666 generates self-base personal information DPX including information representing the participant 22X of the self-base based on the captured image IMGX captured by the two camera modules 50A and 50B.
  • the personal information generation unit 666 generates a three-dimensional model that constitutes a part of the base personal information DPX based on the depth information DDX acquired from the two camera modules 50A and 50B having different measurement points and the captured image IMGX. .
  • the three-dimensional model connects the captured images IMY acquired from the camera modules 50A and 50B based on the depth information DDX (Traiangulation). Then, data from two directions are combined, and RGB surface information is added to the combined data (texture mapping). The process of generating this three-dimensional model will be described later.
  • the gaze information generation unit 664 generates own base gaze information DSX related to the gaze of the participant 22X of the own base 20X.
  • the own base line-of-sight information DSX includes own base identification information for identifying the own base 20X and specific other base identification information for identifying the line-of-sight direction of the participant 22X of the own base 20X.
  • the own base identification information is information for identifying the bases 20A, 20B, 20C, and 20X (the information processing apparatuses 60A, 60B, 60C, and 60X) in which the own base line-of-sight information DSX is generated.
  • the specific other base identification information is information indicating which image among the plurality of other base images 72A, 72B, 72C the participant 22X of the own base 20X is displayed on the display screen 71 of the own base display device 70X. It is. That is, the specific other base identification information identifies the specific other base image 72Y indicated by the line of sight of the participant 22X among the plurality of other base images 72A, 72B, 72C displayed on the display screen 71 of the own base display device 70X. It is information to do. Since the own base line-of-sight information DSX includes the own base identification information for identifying the own base 20X, it is possible to easily specify the base at which the own base line-of-sight information DSX is generated.
  • the own base line-of-sight information DSX is expressed, for example, by the following character string.
  • Own base line of sight information DSX: T > V
  • “T” is the own base identification information for identifying the own base
  • each information processing device 60A, 60B, 60C, 60X is assigned a unique identification number TA, TB, TC, TX.
  • the unique identification numbers TA, TB, TC, TX are information for identifying the participants 22A, 22B, 22C, 22X of the respective bases 20A, 20B, 20C, 20X.
  • V is specific other base identification information
  • V is information for identifying the other base image 72A located in the line of sight direction of the participant 22X of the own base 20X
  • other base images 72A, 72B, Unique identification numbers VA, VB, VC and VX are assigned to each of 72C and 72X.
  • the own base line-of-sight information DSX can be regarded as the other base line-of-sight information DSY when viewed from the other base 20Y.
  • the gaze direction may not be determined.
  • the display image generation unit 662 is a participant 22X of the own base 20X displayed on the display screen 71 of the display device 70 disposed at the specific other base 20Y based on the other base line-of-sight information DSY.
  • the participants 22Y of the base 20Y it is possible to specify a target person (person image) that the participant 22 located at the specific other base 20Y is looking at.
  • the module control unit 668 acquires the captured image IMGX and the audio information SDX from the two camera modules 50A and 50B via the communication unit 62, and stores the acquired captured image IMGX and the audio information SDX in the RAM 644.
  • FIG. 4 is a processing flow of the line-of-sight information generation process executed by the CPU 66.
  • the module control unit 668 acquires the captured image IMGX (step S10).
  • the line-of-sight information generation unit 664 detects the direction of the line of sight of the participant 22X of the own site 20X based on the captured image IMGX (step S12).
  • the gaze information generation unit 664 detects the direction of the gaze based on the face image of the participant 22X included in the captured image IMGX.
  • the face of the participant 22X faces the front of the display screen 71.
  • the detection of the direction of the line of sight uses the detection method (the first detection method) based on the positional relationship between the eye inside and the iris as the iris of the participant 22X with the reference point as the iris of the participant 22X. good. Also, for example, detection of the direction of the line of sight is, for example, using the reference point as the corneal reflection of the participant 22X and the moving point as the pupil of the participant 22X. May be adopted.
  • the gaze information generation unit 664 may detect the direction of the gaze based on the orientation of the face image of the participant 22X included in the captured image IMGX. Further, the direction of the line of sight may be detected by combining the direction of the face image and the first detection method or the second detection method.
  • the sight line information generation unit 664 generates the detection result (direction of sight line) detected in step S12 as specific other base identification information (step S14).
  • the line-of-sight information generation unit 664 detects that the direction of the line of sight of the participant 22 is left front in the first case where the iris is close to the eyes.
  • the line-of-sight information generation unit 664 Based on the detection result and the display position information LD, the line-of-sight information generation unit 664 generates specific other base identification information indicating that the participant 22X is looking at the first other base image 72A.
  • the line-of-sight information generation unit 664 determines that the direction of the line of sight of the participant 22X is front front To detect that. Based on the detection result and the display position information LD, the line-of-sight information generation unit 664 generates specific other base identification information indicating that the participant 22X is looking at the second other base image 72B.
  • the line-of-sight information generation unit 664 determines that the direction of the line of sight of the participant 22X is the front right To detect that. Based on the detection result and the arrangement information LD, the line-of-sight information generation unit 664 generates specific other base identification information indicating that the participant 22X is looking at the third other base image 72C.
  • the line-of-sight information generation unit 664 adds the own base identification information to the specific other base identification information to generate the line-of-sight information DSX (step S16).
  • the own base line-of-sight information DSX is stored in the RAM 644.
  • FIG. 5 is a processing flow of the generation process of the own base person information DPX which the CPU 66 executes.
  • the CPU 66 specifies the position and orientation (posture) of the two camera modules 50A and 50B in the world coordinate system (step S20). That is, a transformation determinant from the model coordinate system to the world coordinate system is calculated.
  • the world coordinate system is a three-axis orthogonal coordinate system that is independent of the individual coordinate systems (model coordinate systems) of the two camera modules 50A and 50B. Transformation from this world coordinate system to a coordinate system (viewpoint coordinate system) for viewing an object from any viewpoint is performed by visual field transformation. Further, the transformation from the viewpoint coordinate system to the screen coordinate system for display on the display device 70 is performed by projective transformation such as perspective transformation on an object placed in the viewpoint coordinate system.
  • the position and direction of the two camera modules 50A, 50B can be determined in the world coordinate system by defining an appropriate origin. It can be determined. In practice, it can be determined by performing calibration. For example, after installing the two camera modules 50A, 50B at a predetermined approximate attitude around a known predetermined position for calibration, each of the two depth sensors 54 will generate Assuming that a part of the shape of a known target derived based on the depth information DDX represents the same area of a known target, the position and the direction of the camera modules 50A and 50B, that is, the imaging position and the imaging direction Derivation of depth measurement position and depth measurement direction.
  • the position and direction of the actual camera module 50A, 50B may be determined using a pattern matching method such as ICP (iterative closest point). It may be specified mathematically in the world coordinate system.
  • ICP iterative closest point
  • a conversion matrix equation for converting a coordinate system unique to each camera module 50A, 50B into the world coordinate system Can be derived.
  • the module control unit 668 receives the captured image IMGX from the camera modules 50A and 50B. And the depth information DDX (step S22). In the present embodiment, the module control unit 668 acquires a captured image IMGX to which the depth information DDX is added.
  • the person information generation unit 666 extracts an object image (person image) and a background image from the captured image IMGX (step S24).
  • the person information generation unit 666 generates a three-dimensional model based on the two depth information DDX acquired from the two camera modules 50A and 50B and the two captured images IMGX (step S26).
  • the person information generation unit 666 specifies the polygon model of the person 22X in the world coordinate system for each of the depth information DDX acquired from the camera modules 50A and 50B.
  • the person information generation unit 666 generates, for each of the camera modules 50A and 50B, an association between each polygon of the identified polygon model and the RGB image as the captured image IMGX.
  • RGB information color information
  • the person information generation unit 666 is three-dimensional based on the captured image IMGX captured by the two camera modules 50 and the depth information DDX acquired from the depth sensors 54 included in the two camera modules 50. Generate a model.
  • the personal information generation unit 666 adds the own base identification information (the identification number of the information processing device 60) to the three-dimensional model to generate the own base personal information DPX (step S28). This makes it possible to identify which information processing apparatus 60 has generated the three-dimensional model.
  • the own base person information DPX is stored in the RAM 644.
  • the self-base personal information DPX and self-base visual line information DSX generated by the line-of-sight information generation process and the self-base personal information generation process of FIGS. 4 and 5 are the information included in the self-base original information DRX via the communication unit 62.
  • a plurality of other base 20Y is transmitted to the other base information processing apparatus 60Y.
  • this own base information DRX is the other base information DRY.
  • FIG. 6 is a processing flow of the generation process of the other base image 72Y which the CPU 66 executes.
  • FIG. 7 is a first diagram showing another base image generated by the display image generation unit 662 and displayed on the display screen 71.
  • FIG. 8 is a second diagram showing another base image generated by the display image generation unit 662 and displayed on the display screen 71.
  • FIG. 9 is a third diagram showing another base image generated by the display image generation unit 662 and displayed on the display screen 71. As shown in FIG.
  • the display image generation unit 662 acquires other base information DRY from the information processing device 60Y of the other base 20Y via the communication unit 62 (step S30).
  • the other base location information DRY includes the other base line-of-sight information DSY, and a three-dimensional model representing the information of the participant 22 as other base personal information DPY.
  • the display image generation unit 662 rotates the three-dimensional model included in the other-base person information DPY based on the other-base line-of-sight information DSY and the display position information LD stored in the RAM 644 to include the person image 22IM.
  • the other base image 72Y is generated (step S32).
  • the participant 22A looks at the person image 22BI included in the other base image 72B among the other base images 72Y displayed on the display device 70 of the base 20A.
  • the participant 22B also looks at the person image 22XI included in the other base image among the other base images 72Y displayed on the display device 70 of the base 20B.
  • the participant 22C looks at the person image 22BI included in the other base image 72B among the other base images 72Y displayed on the display device 70 of the base 20C.
  • the display position information LD is “P72A, P72B, P72C”. That is, on the display screen 71 of the display device 70X, the other base images 72A, 72B, 72C are displayed in order from the left. Specifically, other base images 72A, 72B, 72C are displayed on base image display screens 23P1, 23P2, 23P3 for displaying other base images 72A, 72B, 72C arranged in order from the left of display screen 71. Ru.
  • the display image generation unit 662 refers to the reference table TB (FIG. 2) to determine each transformation matrix based on the other-base line-of-sight information DSY and the display position information LD. Then, as shown in FIG. 7, the display image generation unit 662 determines the conversion matrix so that the person image 22AI of the first other base image 72A on the display screen 71 faces the direction of the person image 22BI representing the target person. Is used to rotate the three-dimensional model of the participant 22A to generate a person image 22AI. That is, the three-dimensional model of the participant 22A is rotated such that the person image 22AI is oriented in the direction in which the person image 22AI is located. Further, as shown in FIG.
  • the display image generation unit 662 makes reference so that the person image 22BI of the second other base image 72B on the display screen 71 faces the direction (front direction) of the participant 22X who is the target person.
  • the three-dimensional model of the participant 22B is rotated using the transformation matrix of the table TB (FIG. 2) to generate a person image 22BI. That is, the three-dimensional model of the participant 22B is rotated so that the person image 22BI faces the front.
  • the display image generation unit 662 is configured to set the reference table TB (see FIG. 7) so that the person image 22CI of the third other base image 72C on the display screen 71 faces the person image 22BI representing the target person.
  • the three-dimensional model of the participant 22C is rotated using the conversion determinant of 2) to generate a person image 22CI. That is, the three-dimensional model of the participant 22C is rotated such that the person image 22CI is oriented in the direction in which the person image 22BI is located.
  • the display image generation unit 662 causes the other base source information DRY to be displayed from the other base source information DRY so that the participant 22Y of the specific other base 20Y faces the direction of the target person on the display screen 71 of the display 70X of the own base 20X.
  • the base image 72Y is generated.
  • the display image generation unit 662 causes the display screen 71 to display the first to third other base images 72A to 72C shown in FIG.
  • the display image generation unit 662 determines the transformation matrix based on the other-base line-of-sight information DSY and the display position information LD with reference to the reference table TB (FIG. 2). Then, the display image generation unit 662 rotates the three-dimensional model of the participant 22A using the determined transformation matrix so that the person image 22AI of the first other base image 72A faces the front direction, and the person image 22AI is rotated. Generate That is, the three-dimensional model of the participant 22A is rotated so that the person image 22AI is an image facing in the direction in which the person 22X is located. Further, as shown in FIG.
  • the three-dimensional model of the participant 22B is rotated using the determined transformation matrix so that the person image 22BI of the second other base image 72B faces the direction of the person image 22AI.
  • An image 22BI is generated. That is, the three-dimensional model of the participant 22B is rotated so that the person image 22BI faces the direction in which the person image 22AI is located.
  • the three-dimensional model of the participant 22C is rotated using the determined transformation matrix so that the person image 22CI of the third other base image 72C faces the direction of the person image 22AI.
  • An image 22CI is generated. That is, the three-dimensional model of the participant 22C is rotated such that the person image 22CI is oriented in the direction in which the person image 22AI is located.
  • the display image generation unit 662 displays the person 22X of the own base 20X and the person of the other other base 20Y displayed on the display device 70 arranged at the specific other base based on the other base line-of-sight information DSY. From 22Y, identify the target person that a person at a specific other site is looking at. Then, on the display screen 71 of the display device 70X of the own site 20X, the three-dimensional model is rotated so that the person 22Y (person image) of the specific other site 20Y faces the direction of the target person (target person image). The other base image 72Y is generated.
  • the three-dimensional model may be displayed without being rotated.
  • the case where the participant 22A of the other base 20A is looking away from the document on the desk corresponds to the case where the direction of the gaze is unknown.
  • the image obtained by photographing the participant 22A faces downward, there is no sense of discomfort even if the three-dimensional model is displayed without being rotated.
  • the display control unit 663 takes the positions of the first to third other base images 72A to 72C to be displayed on the display screen 71 from the display positions shown in FIG. change. Specifically, the display control unit 663 switches the display positions of the first other base image 72A and the third other base image 72C from the state shown in FIG.
  • the display image generation unit 662 refers to the reference table TB (FIG. 2) and performs other base line-of-sight information DSY used when generating the first other base images 72A to 72C in FIG. Based on, determine the transformation determinant. Then, using the determined transformation matrix, the three-dimensional model is rotated and then projective transformation is performed to generate person images 22AI, 22BI, and 22CI. In FIG. 9, the display image generation unit 662 generates a third other base image 72C by rotating the three-dimensional model of the participant 22C such that the person image 22CI faces the direction in which the person image 22BI is located. Further, the display image generation unit 662 generates a first base image 72A in which the person image 22AI faces the direction in which the person image 22BI is located by rotating the three-dimensional model of the participant 22A.
  • the first to third other base images 72A to 72C are generated using a predetermined conversion matrix regardless of the other base line-of-sight information DSY and the display position information LD. It is generated. That is, it is displayed on the display screen 71 of the display device 70 of the own site 20X as a person image captured by the camera module 50 of the other site 20Y. For example, in the situation shown in FIG. 7, all person images 22AI, 22BI, and 22CI are displayed as facing the front like person images 22BI.
  • the information processing apparatus 60 generates the other base image 72Y based on the other base line-of-sight information DSY and the display position information LD. Therefore, the other base image 72Y with enhanced presence is displayed on the display screen 71. Can be generated.
  • the other base image 72Y that faces in the direction of the participant 22Y can be displayed on the display screen 71 of the own base 20X (FIG. 7).
  • the information processing apparatus 60 can generate the other base image 72Y with a more realistic feeling.
  • the display image generation unit 662 can easily generate the other base image 72Y that faces the direction of the target person by rotating the three-dimensional model.
  • the information processing apparatus 60 can rotate the three-dimensional model based on the new display position information LD to generate the other base image 72Y.
  • the information processing apparatus 60 can generate the other base image 72Y with enhanced presence while flexibly responding to the request of the participant 22X, 22Y to change the display position of the other base image 72Y.
  • the information processing device 60 transmits the three-dimensional model to the information processing device 60 of the other bases 20X and 20Y in order to generate the other base image 72Y.
  • the participant 22 corresponds to the “person” described in the means for solving the problem.
  • FIG. 10 is a process flow of a process of generating the own-base person information DPXa which is a modified example.
  • the self-base person information DPXa includes a self-base original image instead of a three-dimensional model as information representing a person.
  • the module control unit 668 acquires the captured image IMGX from the camera modules 50A and 50B (step S22a ).
  • a predetermined region M vertical pixels by N horizontal pixels
  • a predetermined range is cut out from the center of the face image to generate a self-base original image.
  • the own base source image includes the face image of the participant 22X and its background image.
  • self base identification information (the identification number of the information processing apparatus 60) is added to the self base original image to generate self base personal information DPXa (step S28a).
  • the own base person information DPXa and the own base line-of-sight information DSX constitute the own base source information DRXa and viewed from the other base 20Y
  • the own base source information DRXa becomes the other base source information DRYa
  • the own base source image is the other It will be the base source image.
  • FIG. 11 is a process flow of a process of generating another base image 72Ya of the modification.
  • the display image generation unit 662 acquires other base information DRYa from the information processing apparatus 60Y of the other base 20Y via the communication unit 62 (step S30).
  • the other base source information DRYa includes other base line-of-sight information DSY and another base source image.
  • the display image generation unit 662 generates the other base image 72Ya by transforming the other base original image based on the other base line-of-sight information DSY and the display position information LD stored in the RAM 644 (step S32a).
  • the display image generation unit 662 displays, on the display screen 71 of the own site 20X, another base image 72Ya in which the display area becomes larger from one side where the target person is located to the opposite side, It is generated by deforming an image.
  • FIG. 12 is a specific example of the process of generating the other base image 72Ya from the other base original image IMRw executed by the display image generation unit 662.
  • a first other base image 72Aa generated instead of the first other base image 72A shown in FIG. 7 will be described.
  • the participant 22A is looking at the person image 22BI of the participant 22B.
  • the display position information LD is “P72A, P72B, P72C”
  • the display screen 71 of the display device 70X is a state in which other base images 72Aa, 72Ba, 72Ca are displayed in order from the left.
  • the following image processing is performed on the other-base-source image IMRw configured by M ⁇ N pixels. That is, the other base original image IMRw is deformed so that the display area becomes larger from the right side (one side) on which the person image 22BI which is the target person is displayed to the left side (the other side).
  • An image 72Aa is generated. Specifically, the first other base image 72Aa is generated by thinning out the pixels of the other base original image IMRw.
  • the other base point image IMRw has the first left base image thinned out by thinning out the pixels so that the number of vertical pixels at the left end is M pixels and the number of vertical pixels at the right end is M pixels.
  • Generate 72Aa is generated.
  • the other base point original image IMRw is deformed to generate a first other base point image 72Aa in which the person image 22AI is directed in the direction of the person image 22BI (right side in FIG. 12) that is the target person.
  • the other base image 72Ya pointing in the direction of the target person by the image in which the display area of the other base image 72Ya becomes larger from one side to the opposite side.
  • the other base image 72 ⁇ / b> Ya can be displayed on the display screen 71 with enhanced sense of reality even if the processing capability of the processing device 60 is low.
  • FIG. 13 is a diagram for explaining the generation process of the three-dimensional model TMD.
  • the own base information processing apparatus 60X acquires the captured image IG including the person of the other base information DRY from the other base information processing apparatus 60Y.
  • the own site information processing apparatus 60X stores polygon data 90 representing a head in the RAM 644.
  • the display image generation unit 662 extracts the face image 221A in the captured image IG and attaches the face image 221A to the polygon data 90 (texture mapping). Thereby, a three-dimensional model TMD is generated.
  • the display image generation unit 662 generates the other base image 72Y by rotating the generated three-dimensional model TMD based on the other base line-of-sight information DSY and the display position information LD.
  • the information processing apparatus 60 can easily generate the three-dimensional model TMD by acquiring the captured image IG, and generate the other base image 72Y by rotating the three-dimensional model TMD. It is possible to display another base image 72Y with enhanced sense of reality on the display screen 71 even if the processing capability of the information processing apparatus 60 is low.
  • D-1 D-1.
  • First modification In the above embodiment, at each of the bases 20X and 20Y, the height of the camera 52 of the camera module 50 and the height of the line of sight when the participants 22X and 22Y look at the other base image 72Y displayed on the display screen 71 Heights do not necessarily match. For example, when the height of the camera 52 is higher than the height of the line of sight of the participants 22X and 22Y, the image of the person in the other base image 72Y is displayed as if it is facing downward. Therefore, when the height of the camera 52 and the height of the line of sight of the participants 22X and 22Y are different, the display image is displayed so that the line of sight direction of the person in the other base image 72Y becomes horizontal according to the difference in these heights.
  • the generation unit 662 may generate the other base image 72Y from the other base personal information DPY.
  • the information processing apparatus 60 of each of the bases 20X and 20Y is the position (height position) of the camera 52 of the base 20 at which the information processing apparatus 60 is located and the position (height) of the other base image 72Y displayed on the display screen 71.
  • a table in which the relationship of positions) is defined is stored in advance. Then, for example, by rotating the three-dimensional model in the vertical direction, the other base image 72Y in which the line-of-sight direction of the participant 22 of the other base image 72Y is horizontal is generated.
  • the information processing system 100 may have one. Even in this case, the information processing apparatus 60 can generate three-dimensional data based on the depth information DDX acquired from one camera module 50 and the captured image IMGX. If two or more cameras 52 are provided, the depth sensor 54 may be omitted. Even in this case, triangulation can be used to generate depth information to the object to be imaged.
  • 10 Video conference system, 20A, 20B, 20C, 20Y: other site, 20X: own site, 22, 22A, 22B, 22C, 22X ... participant, 22A1, 22BI, 22CI, 22IM ... person image, 23P1, 23P2, 22P3: base image display screen, 50, 50A, 50B: camera module, 52: camera, 54: depth sensor, 56: microphone, 60, 60A, 60B, 60C, 60X: information processor, 62: communication unit, 64: Storage unit, 65: Input unit, 66: CPU, 70: Display device, 70X: Self-location display device, 71: Display screen, 72A, 72Aa: First other location image, 72B: Second other location image, 72C: 72C 3 Other base image, 72Y, 72Ya ...

Abstract

臨場感のある複数の他拠点の画像を表示するための技術を提供する。 情報処理装置は複数の他拠点と通信し、他拠点の人物の視線に関する他拠点視線情報と、他拠点の人物を表す情報を含む他拠点人物情報と、を含む他拠点元情報を受信する通信部と、表示装置の表示画面における他拠点画像の表示位置を表す表示位置情報を取得し、視線情報と表示位置情報とに基づいて、他拠点人物情報から他拠点画像を生成する表示画像生成部と、表示装置に他拠点画像を表示させる表示制御部と、を備える。

Description

情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
 本発明は、他拠点画像を表示するための技術に関する。
 従来、複数の拠点をネットワークを介して接続したテレビ会議システムが知られている(例えば、特許文献1)。従来のテレビ会議システムでは、複数の他拠点の参加者の画像が自拠点のモニターに表示される。また従来、テレビ会議の臨場感を高める方法として、撮像側の空間の3次元画像を生成し、3次元画像から表示側の視点位置に応じた2次元画像を表示装置に表示させる技術が知られている(例えば、特許文献2)。また従来、通信相手と視線が合った状態で会話を行うために、多数の方向から撮影した画像を、視聴者の視線方向に応じて表示する技術が知られている(例えば、特許文献3)。
特開2005-244744号公報 特開2014-72880号公報 特開平5-22722号公報
 特許文献1の技術では、複数の他拠点のカメラが撮像した参加者の画像を自拠点に転送し、自拠点のモニターに複数の他拠点の参加者の画像が表示される。特許文献1の技術では、特定の参加者が別の参加者に視線を送ったり、特定の参加者を指差すなどの指示動作を行うことできないので、臨場感が乏しくなる場合があった。また特許文献2の技術では、自拠点のモニターに表示された画像において、各拠点の参加者がどの拠点の参加者を見ているかを表すことは困難である。また、特許文献3の技術では、ある拠点の参加者と他の拠点の参加者とが視線を合わすためには参加者の左右の移動だけではなく、参加者の上下方向の視線についても調整する必要がある。視線を合わすためには被写体の視線高さに合わせてカメラをセットする必要があり、様々な状況(参加者の身長差や参加者が座っているか立っているかなどの状況)に柔軟に対応することが困難な場合がある。
 よって、自拠点の表示装置に臨場感のある複数の他拠点の画像を容易に表示するための技術が望まれている。また、従来の技術において、低コスト化、省資源化、製造の容易化、使い勝手の向上等が望まれている。このような課題は、TV会議システムに限らず、複数の他拠点の画像を自拠点で表示する技術に共通する。
 本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
(1)本発明の一形態によれば、情報処理装置が提供される。この情報処理装置は、複数の他拠点と通信し、自拠点の表示装置が有する表示画面に前記他拠点の人物画像を含む他拠点画像を表示させるための他拠点元情報であって、前記他拠点の人物の視線に関する他拠点視線情報と、前記他拠点の人物を表す情報を含む他拠点人物情報と、を含む他拠点元情報を受信する通信部と、前記表示装置の表示画面における前記他拠点画像の表示位置を表す表示位置情報を取得し、前記他拠点視線情報と前記表示位置情報とに基づいて、前記他拠点人物情報から前記他拠点画像を生成する表示画像生成部と、前記表示装置に前記他拠点画像を表示させる表示制御部と、を備える。この形態によれば、他拠点視線情報と表示位置情報とに基づいて他拠点画像を生成できるので、臨場感を高めた他拠点画像を表示画面に表示させることができる。
(2)上記形態であって、前記表示画像生成部は、前記他拠点視線情報に基づいて、特定の前記他拠点に配置された表示装置の表示画面に表示された前記自拠点の人物及び他の前記他拠点の人物の中から、特定の前記他拠点の前記人物が見ている対象人物を特定し、前記自拠点の前記表示画面において前記特定の前記他拠点の人物が前記対象人物の方向を向くような前記他拠点画像を前記他拠点人物情報から生成しても良い。この形態によれば、他拠点の人物がそれぞれの拠点の表示画面で見ている対象人物の方向を向くような他拠点画像を自拠点の表示画面に表示できるため、より臨場感を高めた他拠点画像を生成できる。
(3)上記形態であって、前記他拠点の人物を表す情報は、他拠点の人物画像を含む他拠点元画像であり、前記表示画像生成部は、前記自拠点の前記表示画面において、前記対象人物が位置する一方の側から反対の側に向かって表示領域が大きくなる前記他拠点画像を前記他拠点元画像から生成しても良い。この形態によれば、他拠点画像の表示領域が一方の側から反対の側に向かって大きくなることで、対象人物の方向を向くような他拠点画像を生成できる。
(4)上記形態であって、前記他拠点の人物を表す情報は、前記他拠点の人物の3次元モデルであり、前記表示画像生成部は、前記他拠点視線情報に基づいて、特定の前記他拠点に配置された表示装置の表示画面に表示された自拠点の人物及び他の前記他拠点の人物の中から、前記特定の前記他拠点の前記人物が見ている対象人物を特定し、前記自拠点の前記表示画面において、前記特定の前記他拠点の人物が前記対象人物の方向を向くような前記他拠点画像を、前記3次元モデルを回転させて生成しても良い。この形態によれば、3次元モデルを回転させることで対象人物の方向を向くような他拠点画像を容易に生成できる。
(5)上記形態であって、更に、入力部を備え、前記表示制御部は、前記入力部に入力された新たな前記表示位置情報に基づいて、前記自拠点の前記表示画面に表示する前記他拠点画像の表示位置を変更し、前記表示画像生成部は、新たな前記表示位置情報に基づいて、前記3次元モデルを回転させて前記他拠点画像を生成しても良い。この形態によれば、新たな表示位置情報に基づいて3次元モデルを回転させて他拠点画像を生成できる。
(6)上記形態であって、前記通信部は、前記自拠点に配置された撮像部と通信し、前記撮像部によって撮像された撮像画像を受信し、前記情報処理装置は、更に、前記自拠点の人物の視線に関する自拠点視線情報を生成するための視線情報生成部と、前記撮像画像に基づいて、前記自拠点の人物を表す情報を含む自拠点人物情報を生成するための人物情報生成部と、を備え、前記通信部は、前記自拠点人物情報と前記自拠点視線情報とを含む自拠点元情報を前記複数の他拠点に送信しても良い。この形態によれば、自拠点人物情報と自拠点視線情報とを含む自拠点元情報を他拠点の情報処理装置が他拠点画像を生成できる。
(7)上記形態であって、前記自拠点視線情報は、前記自拠点を識別するための自拠点識別情報と、前記自拠点の前記表示画面に表示された複数の前記他拠点画像のうち、前記自拠点の人物の視線が示す特定の前記他拠点画像を識別するための特定他拠点識別情報と、を少なくとも含んでも良い。この形態によれば、自拠点視線情報が、自拠点識別情報を含むので、自拠点視線情報が自拠点によって生成されたことを容易に特定できる。
(8)上記形態であって、前記人物情報生成部は、前記撮像画像に基づいて、前記自拠点の人物を含む対象物の3次元モデルを前記自拠点の人物を表す情報として生成しても良い。この形態によれば、自拠点の人物を表す情報を3次元モデルとして生成できる。
(9)上記形態であって、前記通信部は、前記撮像画像が表す撮像対象物の深度情報を受信し、前記人物情報生成部は、前記撮像画像と、前記深度情報とに基づいて前記3次元モデルを生成しても良い。この形態によれば、撮像画像と深度情報とに基づいて3次元モデルを生成できる。
 例えば、本発明の一形態において、通信部と、表示画像生成部と、表示制御部と、の複数の要素の内の1つ以上の要素を備えた装置としても実現可能である。すなわち、この装置は、通信部を有していても良く、有していなくても良い。また、この装置は、表示画像生成部を有していても良く、有していなくても良い。また、この装置は、表示制御部を有していても良く、有していなくても良い。このような各種形態によれば、装置の小型化、低コスト化、省資源化、製造の容易化、使い勝手の向上等の種々の課題の少なくとも1つを解決できる。また前述した情報処理装置の各形態の技術的特徴の一部又は全部は、いずれもこの装置又は方法に適用することが可能である。
 なお、本発明は、種々の形態で実現することが可能であり、情報処理装置、情報処理装置を含む情報処理システム、情報処理装置の制御方法、これらの装置、システム、方法の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記憶した記憶媒体等の形態で実現することができる。
本発明の実施形態としてのテレビ会議システムを説明するための図である。 拠点に配置された情報処理システムの機能的に示すブロック図である。 表示装置の正面図である。 CPUが実行する視線情報生成工程の処理フローである。 CPUが実行する自拠点人物情報の生成工程の処理フローである。 CPUが実行する他拠点画像の生成工程の処理フローである。 他拠点画像を示す第1の図である。 他拠点画像を示す第2の図である。 他拠点画像を示す第3の図である。 変形例である自拠点人物情報の生成工程の処理フローである。 変形例の他拠点画像の生成工程の処理フローである。 他拠点元画像から他拠点画像の生成工程の具体例である。 3次元モデルの生成工程を説明するための図である。
A.実施形態:
A-1:画像送受信システムの構成:
 図1は、本発明の実施形態としてのテレビ会議システム10を説明するための図である。テレビ会議システム10は、複数の拠点20A,20B,20C,20Xのそれぞれに配置された情報処理装置60をインターネットINTを介して接続したシステムである。各拠点20A,20B,20C,20Xの表示装置に表示された他の拠点の参加者22A,22B,22C、22Xの動画と、音声出力部によって出力された他の拠点の音声とを送受信してテレビ会議が開催される。
 それぞれの情報処理装置60は、インターネットINTを介してデータを送受信できる。ここで、複数の拠点20A,20B,20C,20Xのうち、拠点20Xを自拠点とし、拠点20A,20B,20Cを他拠点20Yとする。また、自拠点20Xの情報処理装置60を「自拠点情報処理装置60X」とも呼び、他拠点20Yの情報処理装置60を「他拠点情報処理装置60Y」とも呼ぶ。拠点20A,20B,20C,20Xは例えば会議室や教室である。なお、拠点の数は4つに限られるものではなく、4つ未満でまっても良いし5つ以上であっても良い。各拠点20A,20B,20C,20Xを区別することなく用いる場合は符号「20」を用いる。また、参加者22A,22B,22C、22Xを区別することなく用いる場合は、符号「22Y」を用いる。
 自拠点情報処理装置60Xは、他拠点情報処理装置60Yから他拠点元情報DRYと、音声情報SDYとを受信する。他拠点元情報DRYは、自拠点表示装置60Xに後述する他拠点画像を表示させるために用いる情報である。他拠点元情報DRYは、他拠点視線情報DSYと他拠点人物情報DPYとを含む。他拠点視線情報DSYは、他拠点20A,20B,20Cの参加者22A,22B,22Cの視線に関する情報を含む。他拠点人物情報DPYは、他拠点20A,20B,20Cの参加者22A,22B,22Cを表す情報と、他拠点20A,20B,20Cを識別するための識別情報と、を含む。参加者22A,22B,22Cを表す情報としては、参加者22A,22B,22Cのそれぞれの撮像画像から生成した参加者22A,22B,22Cの顔を含む3次元モデルであっても良いし、参加者22A,22B,22Cの顔を含む撮像画像であっても良い。本実施形態では、参加者22A,22B,22Cを表す情報は、参加者22A,22B,22Cの顔を含む3次元モデルである。他拠点元情報DRYと音声情報SDYは互いに同期されている。
 図2は、拠点20に配置された情報処理システム100の機能を示すブロック図である。図3は、表示装置70の正面図である。なお、各拠点20A,20B,20C,20Xの情報処理システム100は同一の構成である。以下では、代表して拠点20Xの情報処理システム100を説明する。
 情報処理システム100は、他拠点20Yの情報処理装置60で生成した参加者22Yの他拠点視線情報DSY及び3次元モデルを自拠点20Xの情報処理装置60Xが受信し、受信した他拠点視線情報DSYに基づいて受信した3次元モデルを含む他拠点人物情報DPYから、他拠点20Yの画像である他拠点画像を表示装置70の表示画面に表示させるシステムである。情報処理システム100は、パートナルコンピューター(PC)やダブレット端末として実現されても良い。また、情報処理システム100の表示装置70は、PCやタブレット端末の表示部であっても良いし、PCやタブレット端末とは別体の大型FPD(flat panel display)やプロジェクターであっても良い。
 情報処理システム100は、2つの撮像部としてのカメラモジュール50A,50Bと、情報処理装置60と、表示装置70とを備える。2つのカメラモジュール50A,50Bを区別することなく用いる場合は、符号「50」を用いる。
 図3に示すように、表示装置70は液晶パネルなどで構成された表示部としての表示画面71と、音声を出力する音声出力部76とを備える。表示画面71には、表示画面71の横方向に沿って3つの拠点画像表示画面23P1~23P3と、他拠点20A,20B,20Cの画像である第1~第3他拠点画像72A,72B,72Cと、楕円状のテーブルなどの仮想画像702が表示されている。第1他拠点画像72Aは、他拠点20Aの他拠点情報処理装置60Yから受信した他拠点人物情報DPYを元に自拠点情報処理装置60Xによって生成される。第2他拠点画像72Bは、他拠点20Bの他拠点情報処理装置60Yから受信した他拠点人物情報DPYを元に自拠点情報処理装置60Xによって生成される。第3他拠点画像72Cは、他拠点20Cの他拠点情報処理装置60Yから受信した他拠点人物情報DPYを元に自拠点情報処理装置60Xによって生成される。
 第1他拠点画像72Aは、他拠点20Aの参加者22Aの顔を含む人物画像22AIである。第2他拠点画像72Bは、他拠点20Bの参加者22Bの顔を含む人物画像22BIである。第3他拠点画像72Cは、他拠点20Cの参加者22Cの顔を含む人物画像22CIである。人物画像22AI~22CIの背景となる背景画像は、各拠点20A,20B,20Cの背景画像である実背景画像であっても良いし、自拠点情報処理装置60Xが生成した仮想背景画像であっても良い。すなわち、各他拠点画像72A~72Cは、実背景画像を含んでも良い。仮想背景画像は、例えば、青色などのカラー画像であっても良い。第1~第3他拠点画像72A,72B,72Cを区別することなく用いる場合は「他拠点画像72Y」を用いる。また、自拠点20Xの表示装置70を「自拠点表示装置70X」とも呼び、他拠点20Yの表示装置70を「他拠点表示装置70Y」とも呼ぶ。
 他拠点画像72A,72B,72Cと仮想画像702の表示画面71における表示位置は、自拠点20Xの参加者22Xが情報処理装置60に表示位置を入力することで変更可能である。他拠点画像72A,72B,72Cは、3つの拠点画像表示画面23P1~23P3のいずれかに配置される。図3では、拠点画像表示画面23P1に第1他拠点画像72Aが表示され,拠点画像表示画面23P2に第2他拠点画像72Bが表示され,拠点画像表示画面23P3に第3他拠点画像72Cが表示されている。また、仮想画像702は、各画像72A,72B,72Cの下に表示されている。すなわち、テーブル702を囲んで参加者22A,22B,22C,22Xが着席して会議を行っているように表示画面71に他拠点20A,20B,20Cの参加者22A,22B,22Cが表示されている。これにより、テレビ会議の臨場感を高めることができる。また、各拠点画像表示画面23P1,23P2,23P3は、テーブル702をあたかも囲んでいるような外形形状を有する。すなわち、拠点画像表示画面23P1は、右端が左端よりも小さい台形形状である。また、拠点画像表示画面23P1は、長方形の外形形状である。また、拠点画像表示画面23P2は、左端が右端よりも小さい台形形状である。これにより、テレビ会議の臨場感を更に高めることができる。
 図3に示す第1~第3他拠点画像72A,72B,72Cは、以下の状況(1)~(3)のときに表示される画像である。
(1)拠点20Aの参加者22Aが、拠点20Aの表示装置70に表示された他拠点画像72Yのうち、拠点20Bの参加者22Bの画像を見ている状況。
(2)拠点20Bの参加者22Bが、拠点20Bの表示装置70に表示された他拠点画像72Yのうち、拠点20Xの参加者22Xの画像を見ている状況。
(3)拠点20Cの参加者22Cが、拠点20Cの表示装置70に表示された他拠点画像72Yのうち、拠点20Bの参加者22Bの画像を見ている状況。
 上記状況(1)~(3)のときは、自拠点情報処理装置60Xによって図3に示す第1~第3他拠点画像72A~72Cが生成され、自拠点表示装置70Xの表示画面71に表示される。第1他拠点画像72Aの人物画像22A1は、第2他拠点画像72Bの人物画像22BIを向いているように表示され、第2他拠点画像72Bの人物画像22BIは自拠点20Xの参加者22Xを向いているように表示され、第3拠点画像72Cの人物画像22CIは、第2他拠点画像72Bの人物画像22BIを向いているように表示される。なお、表示画像72に表示された人物画像22AI,22BI,22CIを区別することなく用いる場合は、符号「22IM」を用いる。
 2つのカメラモジュール50A,50Bは、表示画面71の幅方向両側に配置されている。音声出力部76は、他拠点20A,20B,20Cから受信した音声を出力するスピーカーである。音声出力部76は、表示画面71の下側に配置されている。
 カメラモジュール50Aは、参加者22Xの前方左側に配置されている。カメラモジュール50Bは、参加者22Xの前方右側に配置されている。つまり、2つのカメラモジュール50A,50Bは、それぞれ異なる方向から参加者22Xを含む領域を撮像する。
 図2に示すように、2つのカメラモジュール50A,50Bはそれぞれ、カメラ52と、深度センサー54と、マイクロフォン56とを備える。
 カメラ52は、外部からの光を受光して撮像する機能を有する。撮像された撮像画像IMGXは、自拠点情報処理装置60Xに送信される。カメラ52は、自拠点20Xの参加者22Xの顔と顔の背景とを含む領域を撮像している。本実施形態では、それぞれの拠点20X,20Yにおいて、カメラ52の高さと、参加者22X,22Yの視線の高さは一致しているものとする。
 深度センサー54は、カメラ52によって撮像される撮像対象物までの距離を検出する。深度センサー54を用いた距離の検出方式としては、例えば、光源からの射出した光が撮像対象物によって反射して受光部によって受光される時間に基づいて距離を検出する方式(TOF方法)や、光の射出位置と受光位置とに基づいた三角測距方式が用いられる。深度センサー54によって検出された撮像対象物までの距離を表す深度情報DDXは、撮像画像IMGXに付加情報として付加されて、自拠点情報処理装置60Xに送信される。
 マイクロフォン56は、音声を電気信号に変換する。電気信号としての音声情報SDXは撮像画像IMGXに同期して自拠点情報処理装置60Xに送信される。
 自拠点情報処理装置60Xは、通信部62と、記憶部64と、制御部としてのCPU66と、入力部65と、を備える。通信部62と、記憶部64と、CPU66と、入力部65とは互いにバスを介して接続されている。記憶部64は、ROM642と、RAM644とを有する。
 RAM644には、表示制御部663によって生成される他拠点画像72A,72B,72Cの表示位置を表す表示位置情報LDと、表示画像生成部662が他拠点画像72A,72B,72Cを生成するために参照する参照テーブルTBが記憶されている。
 表示位置情報LDは、表示装置70Xの表示画面71における他拠点画像72A,72B,72Cの表示位置を表す。表示位置情報LDは、表示画面71における他拠点画像72A,72B,72Cのそれぞれの相対的な位置関係を表す相対位置情報によって表示位置を表しても良い。例えば、表示位置情報LDが「P72A,P72B,P72C」である場合、表示画面71の左から順に他拠点画像72A,72B,72Cが表示され、表示位置情報LDが「P72A,P72C,P72B」である場合は、表示画面71の左から順に他拠点画像72A,72C,72Bが表示される。表示位置情報LDは、他拠点画像72A,72B,72Cの表示位置の相対的な位置関係を示す情報であれば上記に限定されるものではない。例えば、他拠点画像72A,72B,72Cと、各他拠点画像72A,72B,72Cが表示される拠点画像表示画面23P1,23P2,23P3との対応関係を表す情報であっても良い。
 参照テーブルTBは、他拠点視線情報DSYと表示位置情報LDとに応じてワールド座標系(Xw,Yw,Zw)から視点座標系(X,Y,Z)への回転行列と平行移動ベクトルを含む変換行列式、及び、視点座標系(X,Y,Z)からスクリーン座標系(y、z)への変換行列式とが対応付けたテーブルである。
 入力部65は、利用者からの入力を受け付ける。入力部65は、例えば、マウスやキーボードや音声を用いた入力を受け付ける。
 通信部62は、USB、LAN、Blluetooth,IrDA等の規格に準拠した入出力インターフェイスを備え、データを送受信する。例えば、通信部62は、複数の他拠点20A,20B,20Cの他拠点情報処理装置60Yと通信することで、他拠点元情報DRYと音声情報SDYとを受信する。また例えば、通信部62は、カメラモジュール50A,50Bから撮像画像IMGXと音声情報SDXとを取得する。
 CPU66は、ROM642に記憶された各種プログラムをRAM644にロードして実行することで、後述する種々の処理を実現する。なお、後述する種々の処理は、各種プログラムに基づく動作によって実現されるが、各種プログラムの少なくとも一部は、回路などのハード的な構成によって実現しても良い。
 CPU66は、表示画像生成部662と、表示制御部663と、視線情報生成部664と、人物情報生成部666と、モジュール制御部668として機能する。表示画像生成部662及び表示制御部663は、自拠点表示装置70Xに他拠点画像72Yを表示させる機能、及び、他拠点20Yの音声情報SDYを出力させる機能を構成する。視線情報生成部664と、人物情報生成部666と、モジュール制御部668とは、自拠点20Xが他拠点20Yとして機能する場合における、他拠点元情報DRYと音声情報SDYとを生成する機能を構成する。
 表示画像生成部662は、RAM644に記憶された表示位置情報LDを取得し、他拠点情報処理装置60Yから受信した他拠点視線情報DSYと表示位置情報LDとに基づいて、他拠点人物情報DPYが含む3次元モデルを回転させて表示装置70Xに表示させるための他拠点画像72Yを生成する。表示制御部663は、表示装置70Xを制御する。具体的には、示位置情報LDに基づいて他拠点画像72Yと仮想画像702とを表示装置70Xの表示画面71に表示させる。他拠点画像72Yは所定のフレームレートで表示画面71に表示される。この所定のフレームレートは、他拠点20Yから送信される画像のフレームレートより低くても良い。また、表示制御部663は、他拠点情報処理装置60Yから受信した音声情報SDYを他拠点画像72Yに同期して自拠点表示装置70Xの音声出力部76によって出力させる。この表示画像生成部662が実行する他拠点画像72Yの生成工程については後述する。
 人物情報生成部666は、2つのカメラモジュール50A、50Bが撮像した撮像画像IMGXに基づいて、自拠点の参加者22Xを表す情報を含む自拠点人物情報DPXを生成する。人物情報生成部666は、計測点が異なる2つのカメラモジュール50A,50Bから取得した深度情報DDXと、撮像画像IMGXとに基づいて自拠点人物情報DPXの一部を構成する3次元モデルを生成する。3次元モデルは、カメラモジュール50A,50Bのそれぞれから取得した撮像画像IMGYを深度情報DDXに基づいてつなぎ合わせる(Traiangulation)。そして、2方向からのデータを合成し、合成したデータにRGBの表面情報が付加する(テクスチャーマッピング)。この3次元モデルの生成工程については後述する。
 視線情報生成部664は、自拠点20Xの参加者22Xの視線に関する自拠点視線情報DSXを生成する。自拠点視線情報DSXは、自拠点20Xを識別するための自拠点識別情報と、自拠点20Xの参加者22Xの視線方向を特定するための特定他拠点識別情報とを含む。自拠点識別情報は、自拠点視線情報DSXが生成された拠点20A,20B,20C,20X(情報処理装置60A,60B,60C,60X)を識別するための情報である。特定他拠点識別情報は、自拠点20Xの参加者22Xが自拠点表示装置70Xの表示画面71に表示された複数の他拠点画像72A,72B,72Cのうちのどの画像を見ているかを示す情報である。つまり、特定他拠点識別情報は、自拠点表示装置70Xの表示画面71に表示された複数の他拠点画像72A,72B,72Cのうち、参加者22Xの視線が示す特定の他拠点画像72Yを識別するための情報である。自拠点視線情報DSXが、自拠点20Xを識別するための自拠点識別情報を含むことで、自拠点視線情報DSXが生成された拠点を容易に特定できる。
 自拠点視線情報DSXは、例えば、以下のような文字列によって表現される。
 自拠点視線情報DSX:T=>V
 ここで、「T」は、自拠点を識別するための自拠点識別情報であり、各情報処理装置60A,60B,60C,60Xに固有の識別番号TA,TB,TC,TXが付与されている。つまり、固有の識別番号TA,TB,TC,TXは、各拠点20A,20B,20C,20Xの参加者22A,22B,22C,22Xを識別するための情報であるとも言える。「V」は、特定他拠点識別情報であり、「V」は自拠点20Xの参加者22Xの視線方向に位置する他拠点画像72Aを識別するための情報であり、他拠点画像72A,72B,72C,72Xごとに固有の識別番号VA,VB,VC,VXが付与される。「=>」は、視線方向を示す情報であり、Xに対応する参加者がYに対応する他拠点画像72Yを見ていることを示している。つまり、自拠点視線情報DSXが「TA=>VB」である場合は、参加者22Aが参加者22Bの人物画像22BIを見ていることを示している。自拠点視線情報DSXは、他拠点20Yから見た場合には他拠点視線情報DSYと見なすことができる。なお、参加者22Yが表示装置70以外の場所を見ている場合のように、視線方向が判別できない場合もある。その場合、自拠点視線情報DSXを「TA=>UK」などのようにしても良い。こうすることにより、参加者22Yが表示装置70以外の場所を見ていることを他の拠点20に知らせることができる。
 表示画像生成部662は、上記の他拠点視線情報DSYに基づいて、特定の他拠点20Yに配置された表示装置70が有する表示画面71に表示された自拠点20Xの参加者22X及び他の他拠点20Yの参加者22Yの中から、特定の他拠点20Yに位置する参加者22が見ている対象人物(人物画像)を特定できる。
 モジュール制御部668は、通信部62を介して2つのカメラモジュール50A,50Bから撮像画像IMGXと音声情報SDXとを取得し、取得した撮像画像IMGXと音声情報SDXをRAM644に記憶する。
 図4は、CPU66が実行する視線情報生成工程の処理フローである。モジュール制御部668は、撮像画像IMGXを取得する(ステップS10)。次に、視線情報生成部664は、撮像画像IMGXに基づいて自拠点20Xの参加者22Xの視線の方向を検出する(ステップS12)。具体的には、視線情報生成部664は、撮像画像IMGXに含まれる参加者22Xの顔画像に基づいて視線の方向を検出する。ここで、参加者22Xの顔は表示画面71正面を向いているものと仮定する。視線の方向の検出は、例えば、基準点を参加者22Xの目頭とし、動点を参加者22Xの虹彩として目頭と虹彩との位置関係に基づく検出方法(第1検出方法)を採用しても良い。また、例えば、視線の方向の検出は、例えば、基準点を参加者22Xの角膜反射とし、動点を参加者22Xの瞳孔として角膜反射と瞳孔の位置関係に基づく検出方法(第2検出方法)を採用しても良い。なお、視線情報生成部664は、撮像画像IMGXに含まれる参加者22Xの顔画像の向きによって視線の方向を検出しても良い。また、顔画像の向きと第1検出方法又は第2検出方法を組み合わせて視線の方向を検出しても良い。
 視線情報生成部664は、ステップS12で検出した検出結果(視線の方向)を特定他拠点識別情報として生成する(ステップS14)。第1検出方法を用いた場合、視線情報生成部664は、虹彩が目頭に近い第1の場合は参加者22の視線の方向は左側前方であることを検出する。この検出結果と表示位置情報LDとに基づいて、視線情報生成部664は、参加者22Xが第1他拠点画像72Aを見ていることを示す特定他拠点識別情報を生成する。また、第1検出方法を用いた場合、第1の場合よりも第1虹彩が目頭から離れた第2の場合は、視線情報生成部664は、参加者22Xの視線の方向は正面前方であることを検出する。この検出結果と表示位置情報LDとに基づいて、視線情報生成部664は、参加者22Xが第2他拠点画像72Bを見ていることを示す特定他拠点識別情報を生成する。また、第1検出方法を用いた場合、第2の場合よりも第1虹彩が目頭から離れた第3の場合は、視線情報生成部664は、参加者22Xの視線の方向は右側前方であることを検出する。この検出結果と配置情報LDとに基づいて、視線情報生成部664は、参加者22Xが第3他拠点画像72Cを見ていることを示す特定他拠点識別情報を生成する。
 ステップS14の後に、視線情報生成部664は、特定他拠点識別情報に自拠点識別情報を付与して視線情報DSXを生成する(ステップS16)。これにより、例えば、「X=>Y」という文字情報で表される自拠点視線情報DSXが生成される。この自拠点視線情報DSXは、RAM644に記憶される。
 図5は、CPU66が実行する自拠点人物情報DPXの生成工程の処理フローである。はじめにCPU66は、2つのカメラモジュール50A,50Bの位置と方向(姿勢)をワールド座標系で特定する(ステップS20)。すなわち、モデル座標系からワールド座標系への変換行列式を算出する。ここでワールド座標系とは、2つのカメラモジュール50A,50Bの個々の座標系(モデル座標系)から独立している3軸直交座標系である。このワールド座標系から対象物を任意の視点から見るための座標系(視点座標系)への変換は、視野変換によって行われる。また、視点座標系から表示装置70に表示するためのスクリーン座標系への変換は、視点座標系に置かれた対象物に対して透視変換等の射影変換によって行われる。
 2つのカメラモジュール50A,50B(詳細にはカメラ52)のそれぞれの位置関係と方向が正確に分かると、適当な原点を定めることにより2つのカメラモジュール50A,50Bの位置と方向をワールド座標系で定めることができる。実際には、キャリブレーションを実施することにより定めることができる。例えば、キャリブレーションのための既知のターゲットの周りの予め決められたおよその位置に予め決められたおよその姿勢で2つのカメラモジュール50A,50Bを設置した後に、2つの深度センサー54のそれぞれが生成する深度情報DDXに基づいて導出される既知のターゲットの形状の一部が既知のターゲットの同一領域を表していることを前提としてカメラモジュール50A,50Bの位置と方向、すなわち撮像位置と撮像方向と深度の計測位置と深度の計測方向を導出する。具体的には、各カメラモジュール50A,50Bが生成する深度情報DDXに基づいて、実際のカメラモジュール50A,50Bの位置と方向を、例えばICP(iterative closest point)等のパターンマッチングの手法を用いてワールド座標系で数学的に特定しておけば良い。各カメラモジュール50A、50Bの位置を示す座標と方向を示す単位ベクトルがワールド座標系で特定されると、各カメラモジュール50A,50Bに固有の座標系をワールド座標系に変換するための変換行列式を導出可能になる。
 CPU66は、ボタンが押下される等の参加者22Xからの自拠点人物情報DPXを生成するための指示を入力部65を介して受け付けると、モジュール制御部668がカメラモジュール50A,50Bから撮像画像IMGXと深度情報DDXとを取得する(ステップS22)。本実施形態では、モジュール制御部668が、深度情報DDXが付加された撮像画像IMGXを取得する。
 次に、人物情報生成部666は、撮像画像IMGXから対象物画像(人物画像)と背景画像とを抽出する(ステップS24)。次に、人物情報生成部666は、2つのカメラモジュール50A,50Bから取得した2つの深度情報DDXと2つの撮像画像IMGXとに基づいて3次元モデルを生成する(ステップS26)。具体的には、人物情報生成部666は、カメラモジュール50A,50Bから取得した深度情報DDX毎に人物22Xのポリゴンモデルをワールド座標系で特定する。また人物情報生成部666は、特定したポリゴンモデルの各ポリゴンと撮像画像IMGXとしてのRGB画像との対応付けをカメラモジュール50A,50B毎に生成する。すなわち、ポリゴンモデルの各ポリゴンの表面に、RGBの情報(色情報)をテクスチャとして貼り付けて3次元モデルを生成する。以上のように、人物情報生成部666は、2つのカメラモジュール50がそれぞれ撮像した撮像画像IMGXと、2つのカメラモジュール50が有するそれぞれの深度センサー54から取得した深度情報DDXとに基づいて3次元モデルを生成する。
 次に、人物情報生成部666は、3次元モデルに自拠点識別情報(情報処理装置60の識別番号)を付与して自拠点人物情報DPXを生成する(ステップS28)。これにより、3次元モデルがどの情報処理装置60によって生成されたかを識別できる。自拠点人物情報DPXは、RAM644に記憶される。
 図4及び図5の視線情報生成工程と自拠点人物情報生成工程によって生成された自拠点人物情報DPXと自拠点視線情報DSXとは、自拠点元情報DRXが含む情報として通信部62を介して複数の他拠点20Yの他拠点情報処理装置60Yに送信される。他拠点情報処理装置60Yを自拠点情報処理装置60Xとし、自拠点情報処理装置60Xを他拠点情報処理装置60Yとみなした場合、この自拠点元情報DRXは他拠点元情報DRYとなる。
 図6は、CPU66が実行する他拠点画像72Yの生成工程の処理フローである。図7は、表示画像生成部662によって生成され表示画面71に表示された他拠点画像を示す第1の図である。図8は、表示画像生成部662によって生成され表示画面71に表示された他拠点画像を示す第2の図である。図9は、表示画像生成部662によって生成され表示画面71に表示された他拠点画像を示す第3の図である。
 表示画像生成部662は、通信部62を介して他拠点20Yの情報処理装置60Yから他拠点元情報DRYを取得する(ステップS30)。この他拠点元情報DRYには、上述のごとく、他拠点視線情報DSYと、参加者22の情報を表す3次元モデルを他拠点人物情報DPYとが含まれている。
 次に、表示画像生成部662は、他拠点視線情報DSYとRAM644に記憶された表示位置情報LDとに基づいて、他拠点人物情報DPYに含まれる3次元モデルを回転させて人物画像22IMを含む他拠点画像72Yを生成する(ステップS32)。
 ここで、他拠点情報処理装置60A,60B,60Cからそれぞれ取得した他拠点視線情報DSYが「TA=>VB」、「TB=>VX」,「TC=>VB」であるとする。すなわち、参加者22Aは、拠点20Aの表示装置70に表示された他拠点画像72Yのうち、他拠点画像72Bに含まれる人物画像22BIを見ている。また、参加者22Bは、拠点20Bの表示装置70に表示された他拠点画像72Yのうち、他拠点画像に含まれる人物画像22XIを見ている。また、参加者22Cは、拠点20Cの表示装置70に表示された他拠点画像72Yのうち、他拠点画像72Bに含まれる人物画像22BIを見ている。また、表示位置情報LDは、「P72A,P72B,P72C」であるとする。すなわち、表示装置70Xの表示画面71には、左から順に他拠点画像72A,72B,72Cが表示される。具体的には、表示画面71の左から順に配置された、他拠点画像72A,72B,72Cを表示するための拠点画像表示画面23P1、23P2、23P3に他拠点画像72A,72B,72Cが表示される。
 まず、表示画像生成部662は、参照テーブルTB(図2)を参照して、他拠点視線情報DSYと表示位置情報LDとに基づいて各変換行列式を決定する。そして、図7に示すように、表示画像生成部662は、表示画面71において第1他拠点画像72Aの人物画像22AIが対象人物を表す人物画像22BIの方向を向くように、決定した変換行列式を用いて参加者22Aの3次元モデルを回転させて人物画像22AIを生成する。すなわち、人物画像22AIが、人物画像22AIが位置する方向を向いているような画像となるように、参加者22Aの3次元モデルを回転させる。また、図7に示すように、表示画像生成部662は、表示画面71において第2他拠点画像72Bの人物画像22BIが対象人物である参加者22Xの方向(正面方向)を向くように、参照テーブルTB(図2)の変換行列式を用いて参加者22Bの3次元モデルを回転させて人物画像22BIを生成する。すなわち、人物画像22BIが、正面を向くように、参加者22Bの3次元モデルを回転させる。また、図7に示すように、表示画像生成部662は、表示画面71において第3他拠点画像72Cの人物画像22CIが対象人物を表す人物画像22BIの方向を向くように、参照テーブルTB(図2)の変換行列式を用いて参加者22Cの3次元モデルを回転させて人物画像22CIを生成する。すなわち、人物画像22CIが、人物画像22BIが位置する方向を向いているような画像となるように、参加者22Cの3次元モデルを回転させる。このように、表示画像生成部662は、自拠点20Xの表示装置70Xの表示画面71において、特定の他拠点20Yの参加者22Yが対象人物の方向を向くように、他拠点元情報DRYから他拠点画像72Yを生成する。
 また、ある時点において他拠点情報処理装置60A,60B,60Cからそれぞれ取得した他拠点視線情報DSYが「TA=>VX」、「TB=>VA」,「TC=>VA」であるとする。このとき、表示画像生成部662は、図8に示す、第1~第3他拠点画像72A~72Cを表示画面71によって表示させる。
 まず、表示画像生成部662は、参照テーブルTB(図2)を参照して他拠点視線情報DSYと表示位置情報LDとに基づいて変換行列式を決定する。そして、表示画像生成部662は、第1他拠点画像72Aの人物画像22AIが正面の方向を向くように、決定した変換行列式を用いて参加者22Aの3次元モデルを回転させて人物画像22AIを生成する。すなわち、人物画像22AIが、人物22Xが位置する方向を向いているような画像となるように、参加者22Aの3次元モデルを回転させる。また、図8に示すように、第2他拠点画像72Bの人物画像22BIが人物画像22AIの方向を向くように、決定した変換行列式を用いて参加者22Bの3次元モデルを回転させて人物画像22BIを生成する。すなわち、人物画像22BIが、人物画像22AIが位置する方向を向くように、参加者22Bの3次元モデルを回転させる。また、図8に示すように、第3他拠点画像72Cの人物画像22CIが人物画像22AIの方向を向くように、決定した変換行列式を用いて参加者22Cの3次元モデルを回転させて人物画像22CIを生成する。すなわち、人物画像22CIが、人物画像22AIが位置する方向を向いているような画像となるように、参加者22Cの3次元モデルを回転させる。
 以上のように、表示画像生成部662は、他拠点視線情報DSYに基づいて、特定の他拠点に配置された表示装置70に表示された自拠点20Xの人物22X及び他の他拠点20Yの人物22Yの中から、特定の他拠点の人物が見ている対象人物を特定する。そして、自拠点20Xの表示装置70Xの表示画面71において、特定の他拠点20Yの人物22Y(人物画像)が対象人物(対象となる人物画像)の方向を向くように、3次元モデルを回転させて他拠点画像72Yを生成する。なお、他拠点視線情報DSYが、例えば「TA=>UK」などのように視線の方向が不明であることを示している場合、3次元モデルを回転せずに表示しても良い。例えば、他拠点20Aの参加者22Aが机上の書類に視線を落としている場合などが視線の方向が不明である場合に相当する。この場合、参加者22Aを撮影した画像は下を向いているため、3次元モデルを回転せずに表示しても、違和感はない。
 ここで、図7に示す状態において、参加者22Xから表示位置が入力部65に入力され、新たな表示位置情報LDがRAM644に記憶されたとする。新たな表示位置情報LDは、「P72C,P72B,P72A」である。この入力情報としての新たな表示位置情報LDに基づいて、表示制御部663は表示画面71に表示させるための第1~第3他拠点画像72A~72Cの位置を、図7に示す表示位置から変更する。具体的には、表示制御部663は、図7に示す状態から第1他拠点画像72Aと第3他拠点画像72Cとの表示位置を入れ替える。
 表示画像生成部662は、参照テーブルTB(図2)を参照して、図7の第1他拠点画像72A~72Cを生成する際に用いた他拠点視線情報DSYと新たな表示位置情報LDとに基づいて、変換行列式を決定する。そして、決定した変換行列式を用いて、3次元モデルを回転させた後に射影変換することで人物画像22AI,22BI,22CIを生成する。図9では、表示画像生成部662は、人物画像22CIが人物画像22BIの位置する方向を向くような第3他拠点画像72Cを参加者22Cの3次元モデルを回転させて生成する。また、表示画像生成部662は、人物画像22AIが人物画像22BIの位置する方向を向くような第1拠点画像72Aを参加者22Aの3次元モデルを回転させて生成する。
 なお、表示画像生成部662の機能を実行させない場合は、他拠点視線情報DSYと表示位置情報LDとに拘わらず所定の変換行列式を用いて、第1~第3他拠点画像72A~72Cが生成される。すなわち、他拠点20Yのカメラモジュール50にて撮像された人物画像として自拠点20Xの表示装置70の表示画面71に表示される。例えば図7に示す状況では、全ての人物画像22AI,22BI,22CIが人物画像22BIのように正面を向いているように表示される。表示画像生成部662の機能を実行させないことにより、自拠点情報処理装置60の他の処理の負荷が一時的に高くなってしまった場合でもテレビ会議を継続することができる。
 上記実施形態によれば、情報処理装置60は、他拠点視線情報DSYと表示位置情報LDとに基づいて他拠点画像72Yを生成するので、臨場感を高めた他拠点画像72Yを表示画面71に生じさせることができる。特に、本実施形態では、他拠点視線情報DSYと表示位置情報LDとに基づいて、他拠点画像72Y中の参加者22Yがそれぞれの拠点20Yの表示画面71で見ている、特定の他拠点20Yの参加者22Yの方向を向くような他拠点画像72Yを自拠点20Xの表示画面71に表示できる(図7)。これにより、臨場感をより高めた他拠点画像72Yを情報処理装置60は生成できる。また、上記実施形態によれば、表示画像生成部662は、3次元モデルを回転させることで対象人物の方向を向くような他拠点画像72Yを容易に生成できる。また、情報処理装置60は、新たな表示位置情報LDが入力された場合、新たな表示位置情報LDに基づいて3次元モデルを回転させて他拠点画像72Yを生成できる。これにより、情報処理装置60は、他拠点画像72Yの表示位置を変更するという参加者22X,22Yの要望に柔軟に対応しつつ、臨場感を高めた他拠点画像72Yを生成できる。また、情報処理装置60は、他拠点画像72Yを生成するために3次元モデルを他の拠点20X,20Yの情報処理装置60に送信している。これにより、特定の拠点20X,20Yが他の複数の拠点20X,20Yに応じた画像を生成して、他の複数の拠点20X,20Yに送信する必要が無いため、他拠点画像72Yを表示するために通信されるデータ通信量を低減できる。
 上記実施形態において、参加者22は、課題を解決するための手段に記載の「人物」に相当する。
B.自拠点人物情報と他拠点画像の変形例:
 上記実施形態では、自拠点人物情報DPXは自拠点20Xの参加者22Xの3次元モデルを含み、他拠点画像72Yは3次元モデルを回転させることで生成されたが、自拠点人物情報DPXの種類と、他拠点画像72Yの生成方法は上記実施形態に限定されるものではない。以下に変形例の自拠点人物情報DPXaと他拠点画像72Yaについて説明する。
 図10は、変形例である自拠点人物情報DPXaの生成工程の処理フローである。自拠点人物情報DPXaは、人物を表す情報として3次元モデルに変えて自拠点元画像を含む。
 CPU66は、ボタンが押下される等の参加者22Xからの自拠点人物情報DPXaを生成するための指示を受け付けると、モジュール制御部668がカメラモジュール50A,50Bから撮像画像IMGXを取得する(ステップS22a)。次に、撮像画像IMGXから、参加者の顔を中心とした所定領域(縦M画素、横N画素)を切り出して自拠点元画像を生成する(ステップS24a)。具体的には、撮像画像IMGXから顔のエッジ(特徴部)を検出することで顔画像を特定し、顔画像の中心から所定範囲を切り出して自拠点元画像を生成する。自拠点元画像は、参加者22Xの顔画像とその背景画像を含む。次に、自拠点元画像に自拠点識別情報(情報処理装置60の識別番号)を付与して自拠点人物情報DPXaを生成する(ステップS28a)。自拠点人物情報DPXaと自拠点視線情報DSXとが自拠点元情報DRXaを構成し、他の拠点20Yから見た場合、自拠点元情報DRXaは他拠点元情報DRYaとなり、自拠点元画像は他拠点元画像となる。
 図11は、変形例の他拠点画像72Yaの生成工程の処理フローである。表示画像生成部662は、通信部62を介して他拠点20Yの情報処理装置60Yから他拠点元情報DRYaを取得する(ステップS30)。他拠点元情報DRYaには、他拠点視線情報DSYと他拠点元画像とが含まれる。次に、表示画像生成部662は、他拠点視線情報DSYとRAM644に記憶された表示位置情報LDとに基づいて、他拠点元画像を変形させて他拠点画像72Yaを生成する(ステップS32a)。具体的には、表示画像生成部662は、自拠点20Xの表示画面71において、対象人物が位置する一方の側から反対の側に向かって表示領域が大きくなる他拠点画像72Yaを、他拠点元画像を変形させることで生成する。
 図12は、表示画像生成部662が実行する他拠点元画像IMRwから他拠点画像72Yaの生成工程の具体例である。図12では、図7に示す第1他拠点画像72Aに代えて生成される第1他拠点画像72Aaについて説明する。つまり、他拠点視線情報DSYが「TA=>VB」であり、参加者22Aが参加者22Bの人物画像22BIを見ている状況である。また、表示位置情報LDは、「P72A,P72B,P72C」であり、表示装置70Xの表示画面71には、左から順に他拠点画像72Aa,72Ba,72Caが表示される状況である。この場合、M×Nの画素によって構成される他拠点元画像IMRwについて以下の画像処理を行う。つまり、対象人物である人物画像22BIが表示された右側(一方の側)から左側(他方の側)に向かって表示領域が大きくなるように、他拠点元画像IMRwを変形させて第1他拠点画像72Aaを生成する。具体的には、他拠点元画像IMRwの画素を間引くことで第1他拠点画像72Aaを生成する。本変形例では、他拠点元画像IMRwが、左端の縦画素数をM画素、右端の縦画素数がM画素の3分の1画素の台形となるように画素を間引いて第1他拠点画像72Aaを生成する。このように他拠点元画像IMRwが変形されることで、人物画像22AIが対象人物である人物画像22BI(図12の右側)の方向を向くような第1他拠点画像72Aaが生成される。
 この変形例によれば、他拠点画像72Yaの表示領域が一方の側から反対の側に向かって大きくなる画像によって、対象人物の方向を向くような他拠点画像72Yaを容易に生成できるので、情報処理装置60の処理能力が低くても臨場感を高めた他拠点画像72Yaを表示画面71に表示させることができる。
C.3次元モデルの変形例:
 3次元モデルの生成方法は上記実施形態に限定されるものではない。図13は、3次元モデルTMDの生成工程を説明するための図である。自拠点情報処理装置60Xは、他拠点元情報DRYの人物を含む撮像画像IGを他拠点情報処理装置60Yから取得する。自拠点情報処理装置60Xは、RAM644に頭部を表すポリゴンデータ90を記憶している。表示画像生成部662は、撮像画像IG中の顔画像221Aを抽出して、顔画像221Aをポリゴンデータ90に貼り付ける(テクスチャーマッピング)。これにより、3次元モデルTMDが生成される。表示画像生成部662は、生成した3次元モデルTMDを他拠点視線情報DSYと表示位置情報LDとに基づいて回転させて他拠点画像72Yを生成する。
 この変形例によれば、情報処理装置60は、撮像画像IGを取得することで容易に3次元モデルTMDを生成し、この3次元モデルTMDを回転させることで他拠点画像72Yを生成できるので、情報処理装置60の処理能力が低くても臨場感を高めた他拠点画像72Yを表示画面71に表示させることができる。
D.その他の変形例:
D-1.第1変形例:
 上記実施形態において、それぞれの拠点20X,20Yにおいて、カメラモジュール50のカメラ52の高さと、参加者22X,22Yが表示画面71に表示された他拠点画像72Yを見るときの視線の高さ(目の高さ)は必ずしも一致しない。例えば、カメラ52の高さが参加者22X,22Yの視線の高さよりも高い場合、他拠点画像72Y中の人物画像は下を向いているように表示される。よって、カメラ52の高さと参加者22X,22Yの視線の高さが異なる場合に、これらの高さの違いに応じて他拠点画像72Yの人物の視線方向が水平方向となるように、表示画像生成部662は、他拠点人物情報DPYから他拠点画像72Yを生成しても良い。具体的には、各拠点20X,20Yの情報処理装置60は、自身が位置する拠点20のカメラ52の位置(高さ位置)と表示画面71に表示される他拠点画像72Yの位置(高さ位置)の関係を定めたテーブルを予め記憶しておく。そして、例えば、3次元モデルを垂直方向に回転させることで、他拠点画像72Yの参加者22の視線方向が水平方向となる他拠点画像72Yが生成される。
D-2.第2変形例:
 上記実施形態では、情報処理システム100は2台のカメラモジュール50A,50Bを有していたが、1台であっても良い。このようにしても、1台のカメラモジュール50から取得した深度情報DDXと撮像画像IMGXに基づいて、情報処理装置60は3次元データを生成できる。また、2台以上のカメラ52を有していれば深度センサー54は省略しても良い。このようにしても、三角測量を用いて撮像対象物までの深度情報を生成できる。
 本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
  10…テレビ会議システム、20A,20B,20C,20Y…他拠点、20X…自拠点、22,22A,22B,22C,22X…参加者、22A1,22BI,22CI,22IM…人物画像、23P1,23P2,22P3…拠点画像表示画面、50,50A,50B…カメラモジュール、52…カメラ、54…深度センサー、56…マイクロフォン、60,60A,60B,60C,60X…情報処理装置、62…通信部、64…記憶部、65…入力部、66…CPU、70…表示装置、70X…自拠点表示装置、71…表示画面、72A,72Aa…第1他拠点画像、72B…第2他拠点画像、72C…第3他拠点画像、72Y,72Ya…他拠点画像、76…音声出力部、90…ポリゴンデータ、100…情報処理システム、221A…顔画像、642…ROM、644…RAM、662…表示画像生成部、663…表示制御部、664…視線情報生成部、666…人物情報生成部、668…モジュール制御部、702…仮想画像、DDX…深度情報、DPX,DPXa…自拠点人物情報、DPY…他拠点人物情報、DRX,DRXa…自拠点元情報、DRY,DRYa…他拠点元情報、DSX…自拠点視線情報、DSY…他拠点視線情報、IG,IMGX,IMGY…撮像画像、IMRw…他拠点元画像、INT…インターネット、SDX,SDY…音声情報、TMD…3次元モデル

Claims (14)

  1.  情報処理装置であって、
     複数の他拠点と通信し、自拠点の表示装置が有する表示画面に前記他拠点の人物画像を含む他拠点画像を表示させるための他拠点元情報であって、前記他拠点の人物の視線に関する他拠点視線情報と、前記他拠点の人物を表す情報を含む他拠点人物情報と、を含む他拠点元情報を受信する通信部と、
     前記表示装置の表示画面における前記他拠点画像の表示位置を表す表示位置情報を取得し、前記他拠点視線情報と前記表示位置情報とに基づいて、前記他拠点人物情報から前記他拠点画像を生成する表示画像生成部と、
     前記表示装置に前記他拠点画像を表示させる表示制御部と、を備える、情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記表示画像生成部は、
      前記他拠点視線情報に基づいて、特定の前記他拠点に配置された表示装置の表示画面に表示された前記自拠点の人物及び他の前記他拠点の人物の中から、特定の前記他拠点の前記人物が見ている対象人物を特定し、
      前記自拠点の前記表示画面において前記特定の前記他拠点の人物が前記対象人物の方向を向くような前記他拠点画像を前記他拠点人物情報から生成する、情報処理装置。
  3.  請求項2に記載の情報処理装置であって、
     前記他拠点の人物を表す情報は、他拠点の人物画像を含む他拠点元画像であり、
     前記表示画像生成部は、前記自拠点の前記表示画面において、前記対象人物が位置する一方の側から反対の側に向かって表示領域が大きくなる前記他拠点画像を前記他拠点元画像から生成する、情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記他拠点の人物を表す情報は、前記他拠点の人物の3次元モデルであり、
     前記表示画像生成部は、
      前記他拠点視線情報に基づいて、特定の前記他拠点に配置された表示装置の表示画面に表示された自拠点の人物及び他の前記他拠点の人物の中から、前記特定の前記他拠点の前記人物が見ている対象人物を特定し、
      前記自拠点の前記表示画面において、前記特定の前記他拠点の人物が前記対象人物の方向を向くような前記他拠点画像を、前記3次元モデルを回転させて生成する、情報処理装置。
  5.  請求項4に記載の情報処理装置であって、更に、
     入力部を備え、
     前記表示制御部は、前記入力部に入力された新たな前記表示位置情報に基づいて、前記自拠点の前記表示画面に表示する前記他拠点画像の表示位置を変更し、
     前記表示画像生成部は、新たな前記表示位置情報に基づいて、前記3次元モデルを回転させて前記他拠点画像を生成する、情報処理装置。
  6.  請求項1から請求項5までのいずれか一項に記載の情報処理装置であって、
     前記通信部は、前記自拠点に配置された撮像部と通信し、前記撮像部によって撮像された撮像画像を受信し、
     前記情報処理装置は、更に、
      前記自拠点の人物の視線に関する自拠点視線情報を生成するための視線情報生成部と、
      前記撮像画像に基づいて、前記自拠点の人物を表す情報を含む自拠点人物情報を生成するための人物情報生成部と、を備え、
     前記通信部は、前記自拠点人物情報と前記自拠点視線情報とを含む自拠点元情報を前記複数の他拠点に送信する、情報処理装置。
  7.  請求項6に記載の情報処理装置であって、
     前記自拠点視線情報は、前記自拠点を識別するための自拠点識別情報と、前記自拠点の前記表示画面に表示された複数の前記他拠点画像のうち、前記自拠点の人物の視線が示す特定の前記他拠点画像を識別するための特定他拠点識別情報と、を少なくとも含む、情報処理装置。
  8.  請求項6又は請求項7に記載の情報処理装置であって、
     前記人物情報生成部は、前記撮像画像に基づいて、前記自拠点の人物を含む対象物の3次元モデルを前記自拠点の人物を表す情報として生成する、情報処理装置。
  9.  請求項8に記載の情報処理装置であって、
     前記通信部は、前記撮像部によって撮像される撮像対象物までの距離を表す深度情報を受信し、
     前記人物情報生成部は、前記撮像画像と、前記深度情報とに基づいて前記3次元モデルを生成する、情報処理装置。
  10.  情報処理システムであって、
     表示装置と、
     請求項1から請求項9までのいずれか一項に記載の情報処理装置と、を備える、情報処理装置。
  11.  請求項10に記載の情報処理システムであって、更に、
     撮像部を備える、情報処理システム。
  12.  請求項11に記載の情報処理システムであって、
     前記撮像部は、深度センサーを有する、情報処理システム。
  13.  情報処理装置の制御方法であって、
    (a)複数の他拠点と通信し、自拠点の表示装置が有する表示画面に前記他拠点の人物画像を含む他拠点画像を表示させるための他拠点元情報であって、前記他拠点の人物の視線に関する他拠点視線情報と、前記他拠点の人物を表す情報を含む他拠点人物情報と、を含む他拠点元情報を受信する工程と、
    (b)前記表示装置の表示画面における前記他拠点画像の表示位置を表す表示位置情報を取得し、前記他拠点視線情報と前記表示位置情報とに基づいて、前記他拠点人物情報から前記他拠点画像を生成する工程と、
    (c)前記表示装置に前記他拠点画像を表示させる工程と、を備える、制御方法。
  14.  コンピュータープログラムであって、
     複数の他拠点と通信し、自拠点の表示装置が有する表示画面に前記他拠点の人物画像を含む他拠点画像を表示させるための他拠点元情報であって、前記他拠点の人物の視線に関する他拠点視線情報と、前記他拠点の人物を表す情報を含む他拠点人物情報と、を含む他拠点元情報を受信する機能と、
     前記表示装置の表示画面における前記他拠点画像の表示位置を表す表示位置情報を取得し、前記他拠点視線情報と前記表示位置情報とに基づいて、前記他拠点人物情報から前記他拠点画像を生成する機能と、
    (c)前記表示装置に前記他拠点画像を表示させる機能と、をコンピューターに実現させるためのコンピュータープログラム。
PCT/JP2016/085827 2015-12-07 2016-12-01 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム WO2017098999A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017555037A JPWO2017098999A1 (ja) 2015-12-07 2016-12-01 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-238266 2015-12-07
JP2015238266 2015-12-07

Publications (1)

Publication Number Publication Date
WO2017098999A1 true WO2017098999A1 (ja) 2017-06-15

Family

ID=59014133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085827 WO2017098999A1 (ja) 2015-12-07 2016-12-01 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム

Country Status (2)

Country Link
JP (1) JPWO2017098999A1 (ja)
WO (1) WO2017098999A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019107180A1 (ja) * 2017-12-01 2020-11-26 ソニー株式会社 符号化装置、符号化方法、復号装置、および復号方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746570A (ja) * 1993-07-30 1995-02-14 Nec Corp マルチ画面表示システム
JPH1056626A (ja) * 1996-08-13 1998-02-24 Hitachi Software Eng Co Ltd テレビ会議システム
JP2010206307A (ja) * 2009-02-27 2010-09-16 Toshiba Corp 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
JP2011526089A (ja) * 2008-03-17 2011-09-29 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. パノラマのビデオ画像ストリームの表示
JP2015191537A (ja) * 2014-03-28 2015-11-02 Kddi株式会社 視線一致画像生成方法、装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746570A (ja) * 1993-07-30 1995-02-14 Nec Corp マルチ画面表示システム
JPH1056626A (ja) * 1996-08-13 1998-02-24 Hitachi Software Eng Co Ltd テレビ会議システム
JP2011526089A (ja) * 2008-03-17 2011-09-29 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. パノラマのビデオ画像ストリームの表示
JP2010206307A (ja) * 2009-02-27 2010-09-16 Toshiba Corp 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
JP2015191537A (ja) * 2014-03-28 2015-11-02 Kddi株式会社 視線一致画像生成方法、装置およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019107180A1 (ja) * 2017-12-01 2020-11-26 ソニー株式会社 符号化装置、符号化方法、復号装置、および復号方法
JP7184050B2 (ja) 2017-12-01 2022-12-06 ソニーグループ株式会社 符号化装置、符号化方法、復号装置、および復号方法
US11653023B2 (en) 2017-12-01 2023-05-16 Sony Corporation Encoding device, encoding method, decoding device, and decoding method

Also Published As

Publication number Publication date
JPWO2017098999A1 (ja) 2018-11-01

Similar Documents

Publication Publication Date Title
US10659728B2 (en) Information processing apparatus and information processing method
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
US10701344B2 (en) Information processing device, information processing system, control method of an information processing device, and parameter setting method
US20210327156A1 (en) Performing operations using a mirror in an artificial reality environment
JPWO2011158511A1 (ja) 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
US11750789B2 (en) Image display system
US10986401B2 (en) Image processing apparatus, image processing system, and image processing method
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JPWO2016158014A1 (ja) 情報処理装置、通信システム、情報処理方法及びプログラム
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
CN113426117A (zh) 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质
US11145126B1 (en) Movement instruction using a mirror in an artificial reality environment
JP2011097447A (ja) コミュニケーションシステム
US10082672B2 (en) Display apparatus and method of displaying using electromechanical faceplate
JP7452434B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
CN110060349B (zh) 一种扩展增强现实头戴式显示设备视场角的方法
JP2006318015A (ja) 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム
JP5326816B2 (ja) 遠隔会議システム、情報処理装置、及びプログラム
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム
JP5656809B2 (ja) 会話映像表示システム
JP2004310470A (ja) 視線位置を判定し組合わせるためのシステム及びコンピュータで実行可能なプログラム
US20230164304A1 (en) Communication terminal device, communication method, and software program
WO2017104448A1 (ja) 情報処理装置、3次元モデル生成装置、情報処理装置の制御方法、及び、コンピュータープログラム
JP2014233045A (ja) 映像表示システム及び映像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16872897

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017555037

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16872897

Country of ref document: EP

Kind code of ref document: A1