WO2023135726A1 - 情報処理装置、情報処理方法、及びコンピュータ可読媒体 - Google Patents

情報処理装置、情報処理方法、及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023135726A1
WO2023135726A1 PCT/JP2022/001040 JP2022001040W WO2023135726A1 WO 2023135726 A1 WO2023135726 A1 WO 2023135726A1 JP 2022001040 W JP2022001040 W JP 2022001040W WO 2023135726 A1 WO2023135726 A1 WO 2023135726A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
person
information processing
depression
angle
Prior art date
Application number
PCT/JP2022/001040
Other languages
English (en)
French (fr)
Inventor
智希 北堀
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/001040 priority Critical patent/WO2023135726A1/ja
Priority to JP2023573734A priority patent/JPWO2023135726A5/ja
Publication of WO2023135726A1 publication Critical patent/WO2023135726A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a computer-readable medium, and more particularly to technology for converting human images.
  • Patent Literature 1 discloses an information processing device that converts an image captured by an in-vehicle camera so as to approximate the image capturing conditions used for learning. According to the technology described in Patent Literature 1, it is possible to improve the accuracy of image recognition.
  • Patent Document 2 proposes a technique for performing optimal video conversion processing for each region of an image captured by an in-vehicle camera and displaying a synthetic video that does not give a sense of discomfort.
  • Non-Patent Document 1 discloses a technique for estimating the height of an obstacle from a monocular camera image.
  • the term person image refers to an image taken of a person.
  • the ratio of the size of the image area of the upper portion (eg, shoulders) of the person to the size of the image area of the lower portion (eg, feet) of the person changes according to the depression angle. Therefore, it is difficult to recognize an image of a person photographed at a depression angle different from the photographing depression angle of the learning image.
  • an object of the present disclosure is to provide an information processing device, an information processing method, and a computer-readable medium that enable image recognition of a person photographed at a depression angle different from the photographing depression angle of the learning image.
  • the present disclosure provides: Generating means for generating, from a first image of a person photographed at a first depression angle, a pseudo image corresponding to an image photographed at a second depression angle different from the first depression angle, the image of the person's head. generating means for performing different transformations on the region and the image region of the torso; creating means for creating a recognition dictionary of a person photographed at the second depression angle using the pseudo image;
  • This disclosure is storage means for storing a recognition dictionary generated from a second image of a person photographed at a second depression angle; generating means for generating a pseudo image corresponding to the image captured at the second angle of depression from a first image of the person captured at a first angle of depression different from the second angle of depression; generating means for performing different transforms for image regions and torso image regions; recognition means for recognizing features of a person appearing in the pseudo image using the recognition dictionary;
  • the present disclosure provides a method for a computer to A pseudo image corresponding to an image captured at a second depression angle different from the first depression angle is generated from a first image captured at a first depression angle of the person, wherein the image area of the head of the person is generated. and performing different transforms on the torso image region, and creating a recognition dictionary of a person photographed at the second depression angle using the pseudo image;
  • the present disclosure provides a method for a computer to An image of the person's head, wherein a pseudo image corresponding to the image taken at the second angle of depression is generated from a first image of the person taken at a first angle of depression different from the second angle of depression. performing different transforms for the region and the torso image region; recognizing the features of the person in the pseudo image using a recognition dictionary generated from a second image of the person photographed at a second depression angle;
  • a pseudo image corresponding to an image captured at a second depression angle different from the first depression angle is generated from a first image captured at a first depression angle of the person, wherein the image area of the head of the person is generated. and performing different transforms on the torso image region; creating a recognition dictionary of a person photographed at the second depression angle using the pseudo image;
  • a non-transitory computer-readable medium storing a program for causing a computer to execute an information processing method including
  • This disclosure is generating a pseudo image corresponding to the image captured at the second angle of depression from a first image of the person captured at a first angle of depression different from the second angle of depression, wherein the image region of the person's head and performing different transforms on the torso image region, and recognizing the features of the person in the pseudo image using the recognition dictionary generated from the second image of the person photographed at the second depression angle;
  • a non-transitory computer-readable medium storing a program for causing a computer to execute an information processing method including
  • the information processing device, information processing method, and computer-readable medium according to the present disclosure enable image recognition of a person photographed at a depression angle different from the photographing depression angle of the learning image.
  • FIG. 1 is a block diagram showing an information processing apparatus according to Embodiment 1;
  • FIG. FIG. 2 is a block diagram showing an information processing apparatus according to a second embodiment;
  • FIG. FIG. 10 is a schematic diagram of a system including an information processing device according to a third embodiment;
  • FIG. 2 is a schematic diagram showing an imaging device mounted on a truck;
  • the schematic diagram which illustrates the picked-up image of the person image
  • FIG. 4 is a diagram for explaining the reason why different transformations are performed for the image area of the head and the image area of the torso.
  • FIG. 1 is a block diagram showing the overall configuration of an information processing device 1 according to the first embodiment.
  • the information processing device 1 is a device that creates a recognition dictionary of people photographed at a second depression angle from a first image of a person photographed at a first depression angle.
  • the first depression angle and the second depression angle are different from each other.
  • the second angle of depression may be greater than the first angle of depression and may be less than the first angle of depression.
  • the information processing device 1 can be connected to a first photographing device (not shown) for photographing a person at a first depression angle and a second photographing device (not shown) for photographing a person at a second depression angle via a network (not shown). not shown).
  • the information processing device 1 includes a generation unit 11 and a creation unit 12 .
  • the generation unit 11 generates a pseudo image corresponding to an image captured at a second depression angle different from the first depression angle, from a first image captured at a first depression angle.
  • the generation unit 11 performs different transformations for the image area of the human head and the image area of the body.
  • the generation unit 11 may projectively transform the image area of the torso so that the quadrangle indicating the shape of the torso is transformed into another quadrangle.
  • Projective transformation is also called trapezoidal transformation. If the quadrangle indicating the shape of the trunk is trapezoidal, the ratio of the upper base to the lower base may be closer to 1 as the depression angle is smaller. Also, if the quadrangle indicating the shape of the body is trapezoidal, the greater the depression angle, the smaller the height. In this way, the shape of the quadrangle indicating the shape of the body portion changes according to the depression angle.
  • projective transformation a pseudo image area corresponding to images captured at different depression angles can be generated from the image area of the torso.
  • the generation unit 11 may transform the image area of the head so as to change the viewpoint from which the head is photographed.
  • the photographing depression angle is increased, the image area of the top of the head may become large and the image area of the face may become small.
  • the image area of the head changes according to the depression angle.
  • the viewpoint By converting the viewpoint, the image area of the head can be converted into a pseudo image area corresponding to the image captured at the second depression angle.
  • the viewpoint may be, for example, the position or orientation of the photographing device.
  • a technique described in Non-Patent Document 1 is known as a technique for converting a viewpoint.
  • Non-Patent Document 1 describes converting a photographed image into a top view image.
  • the creation unit 12 creates a recognition dictionary of a person photographed at the second depression angle using the pseudo image.
  • the creating unit 12 may create the recognition dictionary by performing machine learning.
  • the information processing device 1 generates a pseudo image corresponding to the image captured at the second depression angle, and creates a recognition dictionary using the pseudo image. By using the recognition dictionary, the image of a person photographed from the second depression angle can be recognized.
  • the information processing device 1 includes a processor, memory, and storage device (not shown). Further, the storage device stores a computer program in which the processing of the information processing method according to the present embodiment is implemented. Then, the processor loads the computer program from the storage device into the memory and executes the computer program. Thereby, the processor implements the functions of the generation unit 11 and the creation unit 12 .
  • the generation unit 11 and the creation unit 12 may each be realized by dedicated hardware.
  • part or all of each component of each device may be implemented by general-purpose or dedicated circuitry, processors, etc., or combinations thereof. These may be composed of a single chip, or may be composed of multiple chips connected via a bus.
  • a part or all of each component of each device may be implemented by a combination of the above-described circuits and the like and programs.
  • a processor a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (field-programmable gate array), a quantum processor (quantum computer control chip), or the like can be used.
  • each component of the information processing device 1 when part or all of each component of the information processing device 1 is realized by a plurality of information processing devices, circuits, etc., the plurality of information processing devices, circuits, etc. may be centrally arranged, They may be distributed.
  • the information processing device, circuits, and the like may be implemented as a form in which each is connected via a communication network, such as a client-server system, a cloud computing system, or the like.
  • the functions of the information processing device 1 may be provided in a SaaS (Software as a Service) format.
  • FIG. 2 is a block diagram showing the overall configuration of an information processing apparatus 1a according to the second embodiment.
  • the information processing device 1a is a device that performs image recognition by generating a pseudo image corresponding to an image captured at a second angle of depression from a first image of a person captured at a first angle of depression.
  • the information processing device 1a includes a generation unit 11, a storage unit 13, and a recognition unit 14. Since the function of the generation unit 11 is the same as that of the first embodiment, description thereof is omitted. Note that the generation unit 11 sets a predetermined ratio (for example, an upper 1 ⁇ 3 area) from the upper end of the first image as the image area of the head, and sets the image area of the first image other than the image area of the head as the image area of the body. It may be an image area.
  • a predetermined ratio for example, an upper 1 ⁇ 3 area
  • the storage unit 13 stores in advance a recognition dictionary generated from a second image of a person photographed at a second depression angle.
  • the recognition unit 14 uses a recognition dictionary to recognize features of a person appearing in the pseudo image.
  • the recognition unit 14 can detect a person appearing in the pseudo image. Note that the recognition unit 14 may use a recognition dictionary to identify an individual or determine a person's attributes.
  • the information processing device 1a generates a pseudo image corresponding to shooting from the second angle of depression, and performs image recognition using a recognition dictionary corresponding to shooting from the second angle of depression.
  • the information processing apparatus 1a has an advantage that it is not necessary to prepare a recognition dictionary for each shooting depression angle.
  • Embodiment 3 is a specific example of Embodiment 1 and Embodiment 2 described above.
  • FIG. 3 is a configuration diagram showing the configuration of a system including the information processing device 200 according to the third embodiment.
  • the system shown in FIG. 3 includes an imaging device 110 , an imaging device 120 and an information processing device 200 .
  • the imaging device 110 is also called a first imaging device, and the imaging device 120 is also called a second imaging device.
  • An image captured by the image capturing device 110 is referred to as a first image, and an image captured by the image capturing device 120 is referred to as a second image.
  • the information processing device 200 which will be described later, is a device that generates a pseudo image corresponding to the second image from the first image.
  • the height of the imaging device 110 and the height of the imaging device 120 are different from each other.
  • the imaging device 110 may be attached to a passenger car and the imaging device 120 may be attached to a large vehicle such as a truck or a bus.
  • the imaging device 100 may be attached to a building or a pole in town.
  • the imaging device 110 and the imaging device 120 are not distinguished from each other, they may simply be referred to as the imaging device 100 .
  • FIG. 4 is a schematic diagram showing a case where the photographing device 100 is attached to the passenger car 21.
  • the photographing device 100 is attached to the rear of the passenger car 21 .
  • the height of the imaging device 100 is, for example, 1 m.
  • a photographing device 100 photographs a person 30 positioned behind a passenger car 21 .
  • FIG. 5 is a schematic diagram showing a case where the photographing device 100 is attached to the track 22.
  • the imaging device 100 may be a fish-eye camera or a super-wide-angle camera capable of imaging a wide range. This makes it possible to photograph more people and efficiently create a recognition dictionary.
  • the photographing device 100 is attached to the rear of the truck 22 .
  • the photographing device 100 is attached so as to face obliquely downward.
  • the height of the imaging device 100 is, for example, 3 m.
  • the photographing device 100 photographs the person 30 positioned behind the truck 22 .
  • the shooting depression angle may be determined by the height of the shooting device 100 and the horizontal distance between the shooting device 100 and the person 30 .
  • FIG. 6 is a schematic diagram illustrating an example of a photographed image when the photographing device 100 is attached at a height of 2 m.
  • the captured image includes an image area 41 of the head and an image area 42 of the torso.
  • FIG. 7 is a schematic diagram illustrating a photographed image when the photographing device 100 is attached at a height of 3 m.
  • the captured image includes an image area 41 of the head and an image area 42 of the torso.
  • FIG. 6 is close to an image of a person taken from the front, and it is considered that it is relatively easy to recognize a person as an image.
  • FIG. 7 is significantly different from the image of the person photographed from the front, and it is considered difficult to recognize the person in the image.
  • the shape of the rectangle indicating the human torso is different.
  • the vertices of the quadrangle may be, for example, the positions of the right shoulder, the left shoulder, the right foot, and the left foot of the person.
  • the shape of the square representing the human torso in FIG. 6 is close to a rectangle
  • the shape of the square representing the human torso in FIG. 7 is close to a trapezoid. 6 and 7, the face appears larger in FIG. 6, and the top of the head appears larger in FIG.
  • the information processing apparatus 200 which will be described later, may generate a pseudo image corresponding to FIG. 7 from FIG. 6, and create a recognition dictionary for when the image is shot from a high place. Further, the information processing apparatus 200 may generate a pseudo image corresponding to FIG. 6 from FIG. 7 and detect a person using a recognition dictionary.
  • the recognition dictionary may be a dictionary for detecting a person from an image taken horizontally.
  • the information processing device 200 is a specific example of the information processing devices 1 and 1a described above.
  • the information processing device 200 includes a generation unit 210 , a creation unit 220 , a storage unit 230 and a recognition unit 240 . If the information processing device 200 is a specific example of the information processing device 1 , the information processing device 200 may not include the storage unit 230 and the recognition unit 240 . Further, when the information processing device 200 is a specific example of the information processing device 1a, the information processing device 200 does not have to include the creation unit 220 .
  • the generation unit 210 is a specific example of the generation unit 11 described above.
  • the generation unit 210 generates a pseudo image corresponding to the image captured at the second depression angle from the first image.
  • the generator 210 performs different transforms on the image area 41 and the image area 42 .
  • Generation unit 210 outputs the pseudo image to generation unit 220 or recognition unit 240 .
  • the generation unit 210 may generate a pseudo image corresponding to a human image taken from the horizontal direction from the human image taken from above.
  • the information processing apparatus 200 can detect a person from an image shot from above using a normal recognition dictionary. Further, the generation unit 210 may generate a pseudo image corresponding to the human image photographed from above from the human image photographed from the horizontal direction.
  • the information processing apparatus 200 can create a recognition dictionary for recognizing a person appearing in an image shot from above.
  • FIG. 8 shows the result of performing projective transformation on the entire image shown in FIG. 6 to generate a pseudo image corresponding to the image shown in FIG.
  • FIG. 8 shows the result of applying the processing that the generation unit 210 performs to the image area 42 to both the image area 41 and the image area 42 .
  • Image area 42 in FIG. 8 is close to image area 42 in FIG.
  • the image area 41 in FIG. 8 is significantly different from the image area 41 in FIG. Since the orientation of the body does not change with projective transformation, it is considered that an appropriate image cannot be generated.
  • Figures 8 and 7 are significantly different. Therefore, if the recognition dictionary is generated using the image shown in FIG. 8, it is considered that the recognition accuracy will be degraded. Therefore, the generation unit 210 divides the first image into an image area 41 and an image area 42 and performs different transformations on the image area 41 and the image area 42 .
  • the generation unit 210 may set a predetermined ratio (for example, 1/3) from the upper end of the first image as the image area 41 and set the other portion as the image area 42 . If the first image is an image captured by a fish-eye camera or an ultra-wide-angle camera, there is a possibility that body parts (for example, a face) cannot be detected because the image is distorted, but this method can be used to divide the image.
  • a predetermined ratio for example, 1/3
  • the generation unit 210 may divide the first image into the image area 41 and the image area 42 by detecting the head (for example, face) from the first image. Thereby, the generation unit 210 can divide the first image more accurately.
  • the generation unit 210 performs projective transformation on the image area 42 corresponding to shooting from the second depression angle.
  • Projective transformation can transform a quadrangle of arbitrary shape into another quadrangle shape.
  • the conversion parameter used for conversion may be determined according to the depression angle. If the imaging device 110 is a fisheye camera or the like, the generator 210 may correct distortion of the image area 41 . Also, if the imaging device 120 is a fish-eye camera or the like, the generator 210 may add distortion to the image area 41 .
  • the generation unit 210 performs viewpoint conversion on the image area 41 corresponding to shooting from the second depression angle.
  • the generation unit 210 may divide the image region 41 and perform different processing on each region (for example, the parietal region and the face region).
  • the generation unit 210 may complement data when performing viewpoint conversion. If the imaging device 110 is a fisheye camera or the like, the generator 210 may correct distortion of the image area 41 . If the imaging device 120 is a fish-eye camera or the like, the generator 210 may apply distortion to the image area 41 . Viewpoint transformation may be performed according to Non-Patent Document 1.
  • the generation unit 210 generates a pseudo image by combining the image area 41 subjected to the projective transformation and the image area 42 subjected to the viewpoint transformation.
  • the generation unit 210 may transform the image regions 41 and 42 using transformation parameters according to the height of the imaging device 110 . This is because the first depression angle is also converted according to the height of the imaging device 110 .
  • the imaging device 110 may store conversion parameters for each height of the imaging device 110 as a table.
  • the generator 210 may transform the image regions 41 and 42 using transformation parameters according to the height of the imaging device 120 .
  • FIG. 9 shows a pseudo image generated from the image shown in FIG. Different transformations are performed for the image area 41 and the image area 42, and FIG. 9 and FIG. 7 are not significantly different. 8 in which the same conversion is performed on the image regions 41 and 42, the recognition accuracy is lowered as described above.
  • the creating unit 220 is a specific example of the creating unit 12 described above.
  • the creation unit 220 creates a recognition dictionary of a person photographed at the second depression angle using the pseudo image.
  • the creating unit 220 may create a recognition dictionary for each horizontal distance between the photographing device 120 and the person. This is because the angle of depression decreases as the horizontal distance increases, and it is thought that the characteristics of the image of a person also change. The larger the horizontal distance, the closer the image is to the person photographed from the front, and the smaller the horizontal distance, the closer to the image the person is photographed from directly above.
  • the storage unit 230 is a specific example of the storage unit 13 described above.
  • Storage unit 230 may store the recognition dictionary created by creation unit 220 .
  • the storage unit 230 may further store a table that associates the height of the imaging device 110 with conversion parameters.
  • the recognition unit 240 is a specific example of the recognition unit 14 described above.
  • the recognition unit 240 detects a person by recognizing the characteristics of the person appearing in the second image using the recognition dictionary.
  • the recognition unit 240 may recognize the characteristics of the person using a recognition dictionary corresponding to the horizontal distance between the person captured in the second image and the imaging device 120 . This is because the angle of depression decreases as the horizontal distance increases, and it is thought that the characteristics of the image of a person also change.
  • the horizontal distance may be determined according to the size of the person appearing in the second image.
  • the information processing device 200 According to the related art, it is necessary to create a person recognition dictionary for each height of the imaging device 120 .
  • the information processing device 200 has the advantage that it is not necessary to prepare a recognition dictionary for each height of the photographing device 120 .
  • the generating means is projectively transforming the image area of the torso so that the quadrangle indicating the shape of the torso is transformed into another quadrangle; transforming the image area of the head so as to change the viewpoint from which the head is photographed;
  • the information processing device according to appendix 1.
  • the first image is taken by a fisheye camera or an ultra-wide-angle camera, 3.
  • the information processing apparatus according to any one of appendices 1 and 2.
  • the generating means sets a predetermined ratio from the upper end of the first image as the image area of the head, and sets the image area of the first image other than the image area of the head as the image area of the body.
  • the information processing device according to appendix 3. (Appendix 5) further comprising recognition means for recognizing the characteristics of a person in a second image taken at the second depression angle using the recognition dictionary; 5.
  • the information processing apparatus according to any one of Appendices 1 to 4. (Appendix 6) The height of the first imaging device that captures the first image and the height of the second imaging device that captures the second image are different from each other, The information processing device according to appendix 5.
  • the creation means creates the recognition dictionary for each horizontal distance between the second photographing device and the person.
  • the information processing device according to appendix 6.
  • (Appendix 8) storage means for storing a recognition dictionary generated from a second image of a person photographed at a second depression angle; generating means for generating a pseudo image corresponding to the image captured at the second angle of depression from a first image of the person captured at a first angle of depression different from the second angle of depression; generating means for performing different transforms for image regions and torso image regions; recognition means for recognizing features of a person appearing in the pseudo image using the recognition dictionary; Information processing device.
  • the generating means is projectively transforming the image area of the torso so that the quadrangle indicating the shape of the torso is transformed into another quadrangle; transforming the image area of the head so as to change the viewpoint from which the head is photographed;
  • the information processing device according to appendix 8. (Appendix 10) the computer
  • a pseudo image corresponding to an image captured at a second depression angle different from the first depression angle is generated from a first image captured at a first depression angle of the person, wherein the image area of the head of the person is generated. and performing different transforms on the torso image region; creating a recognition dictionary of a person photographed at the second depression angle using the pseudo image;
  • Information processing method including.
  • a non-transitory computer-readable medium that stores a program that causes a computer to execute an information processing method comprising: (Appendix 13) generating a pseudo image corresponding to the image captured at the second angle of depression from a first image of the person captured at a first angle of depression different from the second angle of depression, wherein the image region of the person's head and performing different transforms on the torso image region, and recognizing the features of the person in the pseudo image using a recognition dictionary generated from a second image of the person photographed at a second depression angle;
  • a non-transitory computer-readable medium that stores a program that causes a computer to execute an information processing method comprising:

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

学習用画像の撮像俯角と異なる俯角で撮影された人を画像認識することを可能にする。情報処理装置(1)は、人を第1の俯角で撮影した第1画像から、第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成する生成部(11)を備える。生成部(11)は、人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う。情報処理装置(1)は、疑似画像を用いて、第2の俯角で撮影された人の認識辞書を作成する作成部(12)を備える。

Description

情報処理装置、情報処理方法、及びコンピュータ可読媒体
 本開示は、情報処理装置、情報処理方法、およびコンピュータ可読媒体に関し、特に人画像を変換する技術に関する。
 物体の画像特徴を学習し、画像認識を行う技術が知られている。特許文献1は、学習に用いられた画像の撮影条件に近づけるように、車載カメラによる撮影画像を変換する情報処理装置を開示している。特許文献1に記載された技術によると、画像認識の精度を向上させることができる。
 なお、特許文献2は、車載カメラの撮影画像の各領域に最適な映像変換処理を行い、違和感のない合成映像を表示する技術を提案している。また、非特許文献1は、単眼カメラ画像から、障害物の高さを推定する技術を開示している。
特開2019―125116号公報 特開2005―223568号公報
中島慶子、田中志歩、大川剛直、伊東敏夫、"射影変換を用いた単眼カメラ画像からの障害物の高さ情報推定",画像の認識・理解シンポジウム(MIRU2011)論文集.
 ところで、互いに異なる俯角で人画像を撮影した場合、人画像の特徴は互いに異なる。人画像という用語は、人を撮影した画像を表している。例えば、人の上側部分(例えば、肩)の画像領域の大きさと、下側部分(例えば、足元)の画像領域の大きさの比が、俯角に応じて変化してしまう。したがって、学習用画像の撮影俯角と異なる俯角で撮影された人を画像認識することは困難である。
 本開示は、上記事情に鑑み、学習用画像の撮影俯角と異なる俯角で撮影された人を画像認識することを可能にする情報処理装置、情報処理方法、及びコンピュータ可読媒体を提供することを目的とする。
 上記目的を達成するため、本開示は、
 人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成する生成手段であって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、生成手段と、
 前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成する作成手段と、
 を備える情報処理装置を提供する。
 本開示は、
 人を第2の俯角で撮影した第2画像により生成した認識辞書を記憶する記憶手段と、
 人を前記第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成する生成手段であって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、生成手段と、
 前記認識辞書を用いて、前記疑似画像に写る人の特徴を認識する認識手段と、
 を備える情報処理装置を提供する。
 本開示は、コンピュータが、
 人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
 前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成することと、
 を含む情報処理方法を提供する。
 本開示は、コンピュータが、
 人を、第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
 人を第2の俯角で撮影した第2画像により生成した認識辞書を用いて、前記疑似画像に写る人の特徴を認識することと、
 を含む情報処理方法を提供する。
 本開示は、
 人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで互いに異なる変換を行う、ことと、
 前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成することと、
 を含む情報処理方法をコンピュータに実行させるプログラムを格納する非一時的なコンピュータ可読媒体を提供する。
 本開示は、
 人を第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
 人を第2の俯角で撮影した第2画像により生成した前記認識辞書を用いて、前記疑似画像に写る人の特徴を認識することと、
 を含む情報処理方法をコンピュータに実行させるプログラムを格納する非一時的なコンピュータ可読媒体を提供する。
 本開示に係る情報処理装置、情報処理方法、及びコンピュータ可読媒体は、学習用画像の撮影俯角と異なる俯角で撮影された人を画像認識することを可能にする。
実施形態1に係る情報処理装置を示すブロック図。 実施形態2に係る情報処理装置を示すブロック図。 実施形態3に係る情報処理装置を含むシステムの概略図。 乗用車に搭載された撮影装置を示す模式図。 トラックに搭載された撮影装置を示す模式図。 2mの高さから撮影された人の撮影画像を例示する模式図。 3mの高さから撮影された人の撮影画像を例示する模式図。 頭部の画像領域と胴体部の画像領域とで異なる変換を行う理由を説明するための図。 生成された疑似画像を示す図。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
(実施形態1)
 図1は、実施形態1にかかる情報処理装置1の全体構成を示すブロック図である。情報処理装置1は、人を第1の俯角で撮影した第1画像から、第2の俯角で撮影された人の認識辞書を作成する装置である。第1の俯角と第2の俯角は互いに異なる。第2の俯角は、第1の俯角よりも大きくてもよく、第1の俯角よりも小さくてもよい。
 情報処理装置1は、ネットワーク(不図示)を介して、第1の俯角で人を撮影する第1の撮影装置(不図示)や、第2の俯角で人を撮影する第2の撮影装置(不図示)と接続されていてもよい。
 情報処理装置1は、生成部11および作成部12を備えている。生成部11は、人を第1の俯角で撮影した第1画像から、第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成する。生成部11は、人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う。
 生成部11は、胴体部の形状を示す四角形が別の四角形に変形されるように、胴体部の画像領域を射影変換してもよい。射影変換は、台形変換とも呼ばれる。胴体部の形状を示す四角形が台形である場合、俯角が小さいほど、上底と下底の比が1に近い場合がある。また、胴体部の形状を示す四角形が台形である場合、俯角が大きいほど、高さが小さくなる場合がある。このように、胴体部の形状を示す四角形の形状は、俯角に応じて変化する。射影変換により、胴体部の画像領域から、異なる俯角で撮影した画像に相当する疑似画像領域を生成できる。
 生成部11は、頭部を撮影する視点を変えるように、頭部の画像領域を変換してもよい。撮影俯角を大きくした場合、頭頂部の画像領域が大きくなり、顔の画像領域が小さくなる場合がある。このように、頭部の画像領域は、俯角に応じて変化する。視点を変換することにより、頭部の画像領域を、第2の俯角で撮影した画像に相当する疑似画像領域に変換できる。視点とは、例えば、撮影装置の位置や姿勢であってもよい。視点を変換する技術として、非特許文献1に記載された技術が知られている。非特許文献1には、撮影画像を上面視画像に変換することが記載されている。
 作成部12は、疑似画像を用いて、第2の俯角で撮影された人の認識辞書を作成する。作成部12は、機械学習を行うことにより、認識辞書を作成してもよい。
 情報処理装置1は、第2の俯角で撮影した画像に相当する疑似画像を生成し、当該疑似画像を用いて認識辞書を作成する。当該認識辞書を用いることで、第2の俯角から撮影した人を画像認識できる。
 なお、情報処理装置1は、図示しない構成としてプロセッサ、メモリ及び記憶装置を備えるものである。また、当該記憶装置には、本実施形態にかかる情報処理方法の処理が実装されたコンピュータプログラムが記憶されている。そして、当該プロセッサは、記憶装置からコンピュータプログラムを前記メモリへ読み込ませ、当該コンピュータプログラムを実行する。これにより、前記プロセッサは、生成部11および作成部12の機能を実現する。
 または、生成部11および作成部12は、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、量子プロセッサ(量子コンピュータ制御チップ)等を用いることができる。
 また、情報処理装置1の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、情報処理装置1の機能がSaaS(Software as a Service)形式で提供されてもよい。
(実施形態2)
 図2は、実施形態2にかかる情報処理装置1aの全体構成を示すブロック図である。情報処理装置1aは、人を第1の俯角で撮影した第1画像から、第2の俯角で撮影した画像に相当する疑似画像を生成して、画像認識を行う装置である。
 情報処理装置1aは、生成部11、記憶部13、および認識部14を備えている。生成部11の機能は、実施形態1と同様であるため、説明を省略する。なお、生成部11は、第1画像の上端から所定の割合(例えば、上側の1/3の領域)を頭部の画像領域とし、第1画像のうち頭部の画像領域以外を胴体部の画像領域としてもよい。
 記憶部13は、人を第2の俯角で撮影した第2画像により生成した認識辞書を予め記憶する。認識部14は、認識辞書を用いて、疑似画像に写る人の特徴を認識する。認識部14は、疑似画像に写る人を検出することができる。なお、認識部14は、認識辞書を用いて個人を特定したり、人の属性を判定したりしてもよい。
 情報処理装置1aは、第2の俯角からの撮影に対応した疑似画像を生成し、第2の俯角からの撮影に対応した認識辞書を用いて画像認識を行う。情報処理装置1aは、撮影俯角ごとに認識辞書を用意しなくてもよいという利点を有する。
(実施形態3)
 実施形態3は、上述した実施形態1および実施形態2の具体例である。図3は、実施形態3にかかる情報処理装置200を含むシステムの構成を示す構成図である。図3に示すシステムは、撮影装置110、撮影装置120、および情報処理装置200を備えている。
 撮影装置110は第1の撮影装置とも呼ばれ、撮影装置120は第2の撮影装置とも呼ばれる。撮影装置110による撮影画像は第1画像と称され、撮影装置120による撮影画像は第2画像と称される。後述する情報処理装置200は、第1画像から第2画像に相当する疑似画像を生成する装置である。
 撮影装置110の高さと撮影装置120の高さは互いに異なる。例えば、撮影装置110は乗用車に取り付けられており、撮影装置120はトラックやバスなどの大型車両に取り付けられていてもよい。なお、撮影装置100は、町中のビルやポールなどに取り付けられていてもよい。以下では、撮影装置110と撮影装置120とを互いに区別しない場合には、単に撮影装置100と称する場合がある。
 図4は、撮影装置100が、乗用車21に取り付けられるケースを示す模式図である。撮影装置100は、乗用車21の後方に取り付けられている。撮影装置100の高さは、例えば1mである。撮影装置100は、乗用車21の後方に位置する人30を撮影する。
 図5は、撮影装置100が、トラック22に取り付けられるケースを示す模式図である。撮影装置100は、広い範囲を撮影できる魚眼カメラや超広角カメラであってもよい。これにより、より多くの人を撮影し、効率的に認識辞書を作成することができる。
 撮影装置100は、トラック22の後方に取り付けられている。撮影装置100は斜め下方を向くように取り付けられている。撮影装置100の高さは、例えば3mである。撮影装置100は、トラック22の後方に位置する人30を撮影する。撮影俯角は、撮影装置100の高さと、撮影装置100と人30との間の水平距離によって定められてもよい。
 撮影装置100が高い位置に設置されている場合、人30は、より大きい俯角で撮影される。図6は、撮影装置100が2mの高さに取り付けられている場合の撮影画像を例示する模式図である。撮影画像は、頭部の画像領域41および胴体部の画像領域42を含んでいる。図7は、撮影装置100が3mの高さに取り付けられている場合の撮影画像を例示する模式図である。撮影画像は、頭部の画像領域41および胴体部の画像領域42を含んでいる。
 図6は、人を正面から撮影した画像に近く、人を画像認識することが比較的容易であると考えられる。一方で、図7は、人を正面から撮影した画像とは大きく異なっており、人を画像認識することが困難であると考えられる。
 図6と図7とを比較すると、人の胴体を示す四角形の形状が異なっている。なお、四角形の頂点は、例えば、人の右肩の位置、左肩の位置、右足の位置、左足の位置であってもよい。図6内の人の胴体部を示す四角形の形状は矩形に近く、図7内の人の胴体部を示す四角形の形状は台形に近い。また、図6と図7とを比較すると、図6では顔がより大きく写っており、図7では頭頂部がより大きく写っている。後述する情報処理装置200は、図6から、図7に相当する疑似画像を生成して、高所から撮影した場合の認識辞書を作成してもよい。また、情報処理装置200は、図7から、図6に相当する疑似画像を生成し、認識辞書を用いて人を検出してもよい。この場合、認識辞書は、水平方向から撮影した撮影画像から人を検出するための辞書であってもよい。
 図3に戻り情報処理装置200について説明する。情報処理装置200は、上述した情報処理装置1および1aの具体例である。情報処理装置200は、生成部210、作成部220、記憶部230、および認識部240を備えている。情報処理装置200が情報処理装置1の具体例である場合、情報処理装置200は、記憶部230および認識部240を備えていなくてもよい。また、情報処理装置200が情報処理装置1aの具体例である場合、情報処理装置200は、作成部220を備えていなくてもよい。
 生成部210は、上述した生成部11の具体例である。生成部210は、第1画像から、第2の俯角で撮影した画像に相当する疑似画像を生成する。生成部210は、画像領域41と画像領域42とで異なる変換を行う。生成部210は、疑似画像を、作成部220または認識部240に出力する。
 生成部210は、例えば、上方から撮影した人画像から、水平方向から撮影した人画像に相当する疑似画像を生成してもよい。情報処理装置200は、上方から撮影した画像から、通常の認識辞書を用いて人を検出できる。また、生成部210は、水平方向から撮影した人画像から、上方から撮影した人画像に相当する疑似画像を生成してもよい。情報処理装置200は、上方から撮影した画像に写る人を認識するための認識辞書を作成できる。
 次に、生成部210が、画像領域41と画像領域42とで異なる変換を行う理由について説明する。図8は、図6に示す画像全体に対して射影変換を行い、図7に示す画像に相当する疑似画像を生成した結果を示している。換言すると、図8は、生成部210が画像領域42に対して行う処理を、画像領域41および画像領域42の両方に施した結果を示している。図8の画像領域42は、図7の画像領域42に近い。一方、図8の画像領域41は、図7の画像領域41と大きく異なっている。射影変換では体の向きが変化しないため、適切な画像を生成できていないと考えられる。
 図8と図7とは大きく異なっている。したがって、図8に示す画像を用いて認識辞書を生成した場合、認識精度が低下してしまうと考えられる。そこで、生成部210は、第1画像を、画像領域41と画像領域42とに分割して、画像領域41と画像領域42とで異なる変換を行っている。
 生成部210は、例えば、第1画像の上端から所定の割合(例えば、1/3)を画像領域41とし、それ以外の部分を画像領域42としてもよい。第1画像が魚眼カメラや超広角カメラによる撮影画像である場合、画像が歪んでいるために体の部位(例えば、顔)を検出できない可能性があるが、この方法により分割可能である。
 また、生成部210は、第1画像から頭部(例えば、顔)を検出することにより、第1画像を、画像領域41と画像領域42に分割してもよい。これにより、生成部210は、第1画像をより正確に分割できる。
 そして、生成部210は、画像領域42に対して、第2の俯角からの撮影に対応した射影変換を行う。射影変換は、任意の形状の四角形を、別の四角形の形状に変換できる。変換に用いられる変換パラメータは、俯角に応じて定められてもよい。撮影装置110が魚眼カメラ等である場合、生成部210は、画像領域41の歪みを補正してもよい。また、撮影装置120が魚眼カメラ等である場合、生成部210は、画像領域41に歪みを加えてもよい。
 また、生成部210は、画像領域41に対して、第2の俯角からの撮影に対応した視点変換を行う。生成部210は、画像領域41を分割して各領域(例えば、頭頂部の領域、顔の領域)に対して異なる処理を行ってもよい。生成部210は、視点変換を行う際にデータの補完を行ってもよい。撮影装置110が魚眼カメラ等である場合、生成部210は、画像領域41の歪みを補正してもよい。撮影装置120が魚眼カメラ等である場合、生成部210は、画像領域41に歪みを加えてもよい。視点変換は、非特許文献1に従って行われてもよい。生成部210は、射影変換した画像領域41と視点変換した画像領域42とを組み合わせて疑似画像を生成する。
 撮影装置110が高所に設置されている場合、生成部210は、撮影装置110の高さに応じた変換パラメータを用いて、画像領域41および画像領域42を変換してもよい。撮影装置110の高さにより、第1の俯角も変換するためである。撮影装置110は、撮影装置110の高さごとの変換パラメータをテーブルとして記憶していてもよい。同様に、撮影装置120が高所に設置されている場合、生成部210は、撮影装置120の高さに応じた変換パラメータを用いて、画像領域41および画像領域42を変換してもよい。
 図9は、図6に示す画像から生成された疑似画像を示している。画像領域41と画像領域42とで異なる変換を行っており、図9と図7は大きく異ならない。画像領域41と画像領域42に対して同一の変換を行った図8を用いた場合、上述の通り認識精度が低下してしまうが、図9を用いることにより、認識精度の低下を抑制できる。
 作成部220は、上述した作成部12の具体例である。作成部220は、疑似画像を用いて、第2の俯角で撮影された人の認識辞書を作成する。作成部220は、撮影装置120と人との間の水平距離ごとに認識辞書を作成してもよい。水平距離が大きくなるほど俯角は小さくなるため、人の画像の特徴も変化すると考えられるためである。水平距離が大きいほど人を正面から撮影した画像に近く、水平距離が小さいほど人を真上から撮影した画像に近くなる。
 記憶部230は、上述した記憶部13の具体例である。記憶部230は、作成部220が作成した認識辞書を記憶していてもよい。記憶部230は、撮影装置110の高さと変換パラメータとを対応付けた表をさらに記憶していてもよい。
 認識部240は、上述した認識部14の具体例である。認識部240は、認識辞書を用いて、第2画像に写る人の特徴を認識して人を検出する。認識部240は、第2画像内に写る人と撮影装置120との間の水平距離に対応する認識辞書を用いて、人の特徴の認識を行ってもよい。水平距離が大きくなるほど俯角は小さくなるため、人の画像の特徴も変化すると考えられるためである。水平距離は、第2画像に写る人のサイズに応じて判定されてもよい。
 最後に、情報処理装置200が奏する効果について説明する。関連技術によると、撮影装置120の高さごとに、人の認識辞書を作成する必要があった。情報処理装置200は、撮影装置120の高さごとの認識辞書を用意する必要はないという利点を有する。
 以上、本開示の実施形態を詳細に説明したが、本開示は、上記した実施形態に限定されるものではなく、本開示の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本開示に含まれる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成する生成手段であって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、生成手段と、
 前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成する作成手段と、
 を備えた情報処理装置。
 (付記2)
 前記生成手段は、
 前記胴体部の形状を示す四角形が別の四角形に変形されるように、前記胴体部の画像領域を射影変換し、
 前記頭部を撮影する視点を変えるように、前記頭部の画像領域を変換する、
 付記1に記載の情報処理装置。
 (付記3)
 前記第1画像は魚眼カメラまたは超広角カメラによって撮影される、
 付記1または2のいずれかに記載の情報処理装置。
 (付記4)
 前記生成手段は、前記第1画像の上端から所定の割合を前記頭部の画像領域とし、前記第1画像のうち前記頭部の画像領域以外を前記胴体部の画像領域とする、
 付記3に記載の情報処理装置。
 (付記5)
 前記認識辞書を用いて、前記第2の俯角で撮影した第2画像に写る人の特徴を認識する認識手段をさらに備える、
 付記1から4のいずれか1項に記載の情報処理装置。
 (付記6)
 前記第1画像を撮影する第1の撮影装置の高さと、前記第2画像を撮影する第2の撮影装置の高さとが互いに異なる、
 付記5に記載の情報処理装置。
 (付記7)
 前記作成手段は、前記第2の撮影装置と前記人との間の水平距離ごとの前記認識辞書を作成する、
 付記6に記載の情報処理装置。
 (付記8)
 人を第2の俯角で撮影した第2画像により生成した認識辞書を記憶する記憶手段と、
 人を前記第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成する生成手段であって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、生成手段と、
 前記認識辞書を用いて、前記疑似画像に写る人の特徴を認識する認識手段と、
 を備える情報処理装置。
 (付記9)
 前記生成手段は、
 前記胴体部の形状を示す四角形が別の四角形に変形されるように、前記胴体部の画像領域を射影変換し、
 前記頭部を撮影する視点を変えるように、前記頭部の画像領域を変換する、
 付記8に記載の情報処理装置。
 (付記10)
 コンピュータが、
 人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで互いに異なる変換を行う、ことと、
 前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成することと、
 を含む情報処理方法。
 (付記11)
 コンピュータが、
 人を第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
 人を第2の俯角で撮影した第2画像により生成した認識辞書を用いて、前記疑似画像に写る人の特徴を認識することと、
 を含む情報処理方法。
 (付記12)
 人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
 前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成することと、
 を含む情報処理方法をコンピュータに実行させるプログラムを格納する非一時的なコンピュータ可読媒体。
 (付記13)
 人を第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
 人を第2の俯角で撮影した第2画像により生成した認識辞書を用いて、前記疑似画像に写る人の特徴を認識することと、
 を含む情報処理方法をコンピュータに実行させるプログラムを格納する非一時的なコンピュータ可読媒体。
1、1a:情報処理装置
11:生成部
12:作成部
13:記憶部
14:認識部
100、110、120:撮影装置
200:情報処理装置
210:生成部
220:作成部
230:記憶部
240:認識部
21:乗用車
22:トラック
30:人
41、42:画像領域

Claims (13)

  1.  人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成する生成手段であって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、生成手段と、
     前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成する作成手段と、
     を備えた情報処理装置。
  2.  前記生成手段は、
     前記胴体部の形状を示す四角形が別の四角形に変形されるように、前記胴体部の画像領域を射影変換し、
     前記頭部を撮影する視点を変えるように、前記頭部の画像領域を変換する、
     請求項1に記載の情報処理装置。
  3.  前記第1画像は魚眼カメラまたは超広角カメラによって撮影される、
     請求項1または2のいずれかに記載の情報処理装置。
  4.  前記生成手段は、前記第1画像の上端から所定の割合を前記頭部の画像領域とし、前記第1画像のうち前記頭部の画像領域以外を前記胴体部の画像領域とする、
     請求項3に記載の情報処理装置。
  5.  前記認識辞書を用いて、前記第2の俯角で撮影した第2画像に写る人の特徴を認識する認識手段をさらに備える、
     請求項1から4のいずれか1項に記載の情報処理装置。
  6.  前記第1画像を撮影する第1の撮影装置の高さと、前記第2画像を撮影する第2の撮影装置の高さとが互いに異なる、
     請求項5に記載の情報処理装置。
  7.  前記作成手段は、前記第2の撮影装置と前記人との間の水平距離ごとの前記認識辞書を作成する、
     請求項6に記載の情報処理装置。
  8.  人を第2の俯角で撮影した第2画像により生成した認識辞書を記憶する記憶手段と、
     人を前記第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成する生成手段であって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、生成手段と、
     前記認識辞書を用いて、前記疑似画像に写る人の特徴を認識する認識手段と、
     を備える情報処理装置。
  9.  前記生成手段は、
     前記胴体部の形状を示す四角形が別の四角形に変形されるように、前記胴体部の画像領域を射影変換し、
     前記頭部を撮影する視点を変えるように、前記頭部の画像領域を変換する、
     請求項8に記載の情報処理装置。
  10.  コンピュータが、
     人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで互いに異なる変換を行う、ことと、
     前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成することと、
     を含む情報処理方法。
  11.  コンピュータが、
     人を第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
     人を第2の俯角で撮影した第2画像により生成した認識辞書を用いて、前記疑似画像に写る人の特徴を認識することと、
     を含む情報処理方法。
  12.  人を第1の俯角で撮影した第1画像から、前記第1の俯角と異なる第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
     前記疑似画像を用いて、前記第2の俯角で撮影された人の認識辞書を作成することと、
     を含む情報処理方法をコンピュータに実行させるプログラムを格納する非一時的なコンピュータ可読媒体。
  13.  人を第2の俯角と異なる第1の俯角で撮影した第1画像から、前記第2の俯角で撮影した画像に相当する疑似画像を生成することであって、前記人の頭部の画像領域と胴体部の画像領域とで異なる変換を行う、ことと、
     人を第2の俯角で撮影した第2画像により生成した認識辞書を用いて、前記疑似画像に写る人の特徴を認識することと、
     を含む情報処理方法をコンピュータに実行させるプログラムを格納する非一時的なコンピュータ可読媒体。
PCT/JP2022/001040 2022-01-14 2022-01-14 情報処理装置、情報処理方法、及びコンピュータ可読媒体 WO2023135726A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/001040 WO2023135726A1 (ja) 2022-01-14 2022-01-14 情報処理装置、情報処理方法、及びコンピュータ可読媒体
JP2023573734A JPWO2023135726A5 (ja) 2022-01-14 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/001040 WO2023135726A1 (ja) 2022-01-14 2022-01-14 情報処理装置、情報処理方法、及びコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023135726A1 true WO2023135726A1 (ja) 2023-07-20

Family

ID=87278728

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001040 WO2023135726A1 (ja) 2022-01-14 2022-01-14 情報処理装置、情報処理方法、及びコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023135726A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221437A (ja) * 2011-04-14 2012-11-12 Hitachi Ltd 物体認識装置および物体認識方法
JP2014225864A (ja) * 2013-04-15 2014-12-04 キヤノン株式会社 画像処理装置および画像処理方法
JP2016152605A (ja) * 2015-02-19 2016-08-22 大日本印刷株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2016181159A (ja) * 2015-03-24 2016-10-13 富士通株式会社 システム、検索方法およびプログラム
JP2020177530A (ja) * 2019-04-19 2020-10-29 パナソニックIpマネジメント株式会社 画像処理システム、画像処理方法、及びプログラム
JP2021128678A (ja) * 2020-02-17 2021-09-02 株式会社東芝 画像センサ、計算装置、および画像センサシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221437A (ja) * 2011-04-14 2012-11-12 Hitachi Ltd 物体認識装置および物体認識方法
JP2014225864A (ja) * 2013-04-15 2014-12-04 キヤノン株式会社 画像処理装置および画像処理方法
JP2016152605A (ja) * 2015-02-19 2016-08-22 大日本印刷株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2016181159A (ja) * 2015-03-24 2016-10-13 富士通株式会社 システム、検索方法およびプログラム
JP2020177530A (ja) * 2019-04-19 2020-10-29 パナソニックIpマネジメント株式会社 画像処理システム、画像処理方法、及びプログラム
JP2021128678A (ja) * 2020-02-17 2021-09-02 株式会社東芝 画像センサ、計算装置、および画像センサシステム

Also Published As

Publication number Publication date
JPWO2023135726A1 (ja) 2023-07-20

Similar Documents

Publication Publication Date Title
JP6330987B2 (ja) 画像処理装置、画像処理方法、及び記憶媒体
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP6311020B2 (ja) 映像合成システムとそのための映像合成装置及び映像合成方法
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
CN101815174B (zh) 摄像控制方法及控制装置
JP4865517B2 (ja) 頭部の位置・姿勢検出装置
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
KR20210051242A (ko) 멀티 렌즈 영상 복원 장치 및 방법
KR20220038996A (ko) 특징 임베딩 방법 및 장치
US11232315B2 (en) Image depth determining method and living body identification method, circuit, device, and medium
JP6874850B2 (ja) 物体検知装置、物体検知方法、及びプログラム
KR102630106B1 (ko) 우선순위 사물 기반의 영상 정합 장치 및 그 방법
KR20160088814A (ko) 2차원 이미지를 3차원 그래픽 모델로 변환하는 방법
JP2018097573A (ja) 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法
JP5126115B2 (ja) 検出対象判定装置,インテグラルイメージ生成装置。
KR101726692B1 (ko) 객체 추출 장치 및 방법
JP2011210087A (ja) 車両周囲監視装置および車両周囲監視方法
WO2023135726A1 (ja) 情報処理装置、情報処理方法、及びコンピュータ可読媒体
KR20220121533A (ko) 어레이 카메라를 통해 획득된 영상을 복원하는 영상 복원 방법 및 영상 복원 장치
JP2006215743A (ja) 画像処理装置及び画像処理方法
KR101734749B1 (ko) 차량 주변 영상 정합 시스템 및 방법
US20230316640A1 (en) Image processing apparatus, image processing method, and storage medium
JP2019220032A (ja) 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法
JP2020173504A (ja) 位置推定システム、位置推定装置、位置推定方法、及びプログラム
WO2021131103A1 (ja) 距離画像処理装置及び距離画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22920251

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023573734

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE