JP2022076541A - Method for presenting composition of real-estate living room image - Google Patents

Method for presenting composition of real-estate living room image Download PDF

Info

Publication number
JP2022076541A
JP2022076541A JP2020186936A JP2020186936A JP2022076541A JP 2022076541 A JP2022076541 A JP 2022076541A JP 2020186936 A JP2020186936 A JP 2020186936A JP 2020186936 A JP2020186936 A JP 2020186936A JP 2022076541 A JP2022076541 A JP 2022076541A
Authority
JP
Japan
Prior art keywords
composition
living room
image
line
room image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020186936A
Other languages
Japanese (ja)
Inventor
裕樹 高橋
Hiroki Takahashi
大樹 赤間
Daiki Akama
久男 木村
Hisao Kimura
啓介 鈴木
Keisuke Suzuki
将親 鈴木
Masachika Suzuki
良夫 浅田
Yoshio Asada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electro Communications NUC
Avant Corp
Original Assignee
University of Electro Communications NUC
Avant Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electro Communications NUC, Avant Corp filed Critical University of Electro Communications NUC
Priority to JP2020186936A priority Critical patent/JP2022076541A/en
Publication of JP2022076541A publication Critical patent/JP2022076541A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a method of presenting the composition of a real-estate living room image to support photographing of a real-estate living room image constructed by only a composition.SOLUTION: In a method for presenting the composition of a real-estate living room image to present a composition for a camera when an image of a real-estate living room is captured, edge detection 42 is performed on a living room image, straight line detection 43 is performed on the living room image which has been subjected to the edge detection 42, and detection 44 of a composition feature point 11 is performed from a line segment 51 obtained by the straight line detection 43. Further, the living room image is classified into four quadrants by using an X-axis and a Y-axis, and a corner 10 is detected in each of the four quadrants. Furthermore, a composition feature line 20 is estimated based on the detected composition feature point 11 and an extended line segment 51 passing through the corner 10.SELECTED DRAWING: Figure 5

Description

特許法第30条第2項適用申請有り (1)令和1年11月28日に映像情報メディア学会冬季大会2019の予稿集にて発表。 (2)令和1年12月13日に映像情報メディア学会冬季大会2019の講演にて発表。 (3)令和2年2月26日に映像メディア学会研究会申込システムにて講演論文詳細を発表。There is an application for application of Article 30, Paragraph 2 of the Patent Act. (2) Reiwa Presented at the lecture of the Winter Games 2019 of the Society of Image Information and Television Engineers on December 13, 1991. (3) On February 26, 2nd year of Reiwa, the details of the lecture paper were announced at the application system of the Study Group of the Imaging Media Society.

本発明は、不動産居室画像の撮影時に、カメラに構図を呈示するための不動産居室画像の構図呈示方法に関するものである。 The present invention relates to a method for presenting a composition of a real estate living room image for presenting a composition to a camera when the real estate living room image is taken.

近年、インターネットを用いて不動産物件や情報を探す住宅購入者が増えてきている。その際、不動産会社の選定のポイントとして不動産居室画像を挙げる方も多く、画像の見栄えが重要視されている。しかしながら、このような居室画像は、写真撮影の専門家ではない不動産会社の社員が撮影するため、画像の出来映え、品質にばらつきがある。そのため、このばらつきを少なく、品質の安定した居室画像が求められている。 In recent years, an increasing number of home buyers are searching for real estate properties and information using the Internet. At that time, many people cite real estate room images as a point for selecting a real estate company, and the appearance of the images is regarded as important. However, since such living room images are taken by employees of a real estate company who are not specialists in photography, the quality and quality of the images vary. Therefore, there is a demand for stable quality living room images with less variation.

一方、特許文献1には、画像撮影の支援を行うために、撮影者の撮影操作を誘導して、被写体情報と撮影構図情報とを合致させる撮影装置に関する技術が開示されている。 On the other hand, Patent Document 1 discloses a technique relating to a photographing device for guiding a photographer's photographing operation to match subject information and photographing composition information in order to support image photographing.

特開2011-097194号公報Japanese Unexamined Patent Publication No. 2011-097194

不動産居室画像は、一般的な写真とは異なり被写体は存在せず、構図(或いは、構図全体が被写体となる)のみで構成される。上述した特許文献1では、被写体と構図の関係を調整する技術について記載されているが、構図のみの構成で撮影支援を行う方法については開示されていない。 Unlike a general photograph, a real estate living room image does not have a subject and is composed only of a composition (or the entire composition is the subject). The above-mentioned Patent Document 1 describes a technique for adjusting the relationship between the subject and the composition, but does not disclose a method of performing shooting support with only the composition.

本発明は、構図のみで構成される不動産居室画像の撮影支援を行うための不動産居室画像の構図呈示方法を提供することを目的としている。 An object of the present invention is to provide a method for presenting a composition of a real estate living room image for supporting shooting of a real estate living room image composed only of a composition.

上記課題を解決するために、本発明は、不動産居室の画像を撮影する際に、カメラに構図を呈示するための不動産居室画像の構図呈示方法であって、居室画像に対して、エッジ検出を行い、前記エッジ検出を行った前記居室画像に対して、直線検出を行い、前記直線検出によって得られた線分から構図特徴点を検出することを特徴とする。 In order to solve the above problems, the present invention is a method for presenting a composition of a real estate living room image for presenting a composition to a camera when an image of a real estate living room is taken, and edge detection is performed on the living room image. It is characterized in that straight line detection is performed on the living room image for which edge detection has been performed, and composition feature points are detected from the line segments obtained by the straight line detection.

また、前記居室画像をX軸およびY軸を用いて4つの象限に分類し、4つの前記象限のそれぞれでコーナーを検出してもよい。 Further, the living room image may be classified into four quadrants using the X-axis and the Y-axis, and corners may be detected in each of the four quadrants.

さらに、検出した前記構図特徴点と前記コーナーとを通る延長した線分に基づいて、構図特徴線を推定してもよい。 Further, the composition feature line may be estimated based on the detected extended line segment passing through the composition feature point and the corner.

また、前記構図特徴点および前記構図特徴線に基づいて、3分割構図または4分割構図を選択することができる。 Further, a three-divided composition or a four-divided composition can be selected based on the composition feature points and the composition feature lines.

さらにまた、推定した前記構図特徴線のアスペクト比を用いて、選択した前記3分割構図または前記4分割構図の補正を行うようにしてもよい。 Furthermore, the aspect ratio of the composition feature line estimated may be used to correct the selected three-division composition or the four-division composition.

本発明によれば、検出した構図特徴点に基づいて居室画像に最適な構図を選択・適用することができる。そのため、この構図によって居室画像のバランスを撮影者の感覚ではなく機械的に確認できるので、画像の出来映え、品質にばらつきが少なく、品質の安定した居室画像を提供することができる。 According to the present invention, it is possible to select and apply the optimum composition for a living room image based on the detected composition feature points. Therefore, since the balance of the living room image can be confirmed mechanically instead of the sense of the photographer by this composition, it is possible to provide a living room image with stable quality with little variation in image quality and quality.

本発明の実施の形態に係る不動産居室画像の構図呈示方法を用いて作成した居室画像であって、(A)は1消失点画像、(B)は2消失点画像である。It is a living room image created by using the composition presenting method of the real estate living room image which concerns on embodiment of this invention, (A) is 1 vanishing point image, (B) is 2 vanishing point image. 1消失点画像の呈示構図であって、(A)は3分割構図、(B)は4分割構図を示す。It is a presentation composition of a vanishing point image, (A) shows a three-division composition, and (B) shows a four-division composition. 2消失点画像の呈示構図であって、(A)は3分割構図で構図特徴点を3:1、(B)は1:1、(C)は1:3の比率で配置したものである。It is a presentation composition of two vanishing point images, in which (A) is a three-divided composition and composition feature points are arranged at a ratio of 3: 1, (B) is 1: 1 and (C) is 1: 3. .. 2消失点画像の呈示構図であって、(A)は4分割構図で構図特徴点を3:1、(B)は1:1、(C)は1:3の比率で配置したものである。It is a presentation composition of two vanishing point images, in which (A) is a four-divided composition and composition feature points are arranged at a ratio of 3: 1, (B) is 1: 1 and (C) is 1: 3. .. 処理概要を示すフローチャートである。It is a flowchart which shows the processing outline. エッジ検出画像の例を示す概要図である。It is a schematic diagram which shows the example of the edge detection image. 1消失点画像の構図特徴点検出の概要を示すものであり、(A)は線分検出結果、(B)は構図特徴点検出結果である。1 The outline of the composition feature point detection of the vanishing point image is shown, (A) is a line segment detection result, and (B) is a composition feature point detection result. 構図特徴点を4つの象限に分類したものを示す概要図である。It is a schematic diagram which shows the composition characteristic point classified into four quadrants. 構図特徴線の推定結果を示す概要図である。It is a schematic diagram which shows the estimation result of a composition feature line. 3分割構図におけるアスペクト比の補正結果であって、(A)は補正なし、(B)は水平補正をしたもの、(C)は鉛直補正をしたものを示す。The aspect ratio correction results in the three-divided composition, (A) shows no correction, (B) shows horizontal correction, and (C) shows vertical correction. 4分割構図におけるアスペクト比の補正結果であって、(A)は補正なし、(B)は水平補正をしたもの、(C)は鉛直補正をしたものを示す。The aspect ratio correction results in the 4-division composition, (A) shows no correction, (B) shows horizontal correction, and (C) shows vertical correction. 2消失点画像であって、(A)は線分検出結果、(B)は構図特徴点検出結果である。2 Vanishing point images, (A) is a line segment detection result, and (B) is a composition feature point detection result. 図12とは異なる他の2消失点画像であって、(A)は線分検出結果、(B)は構図特徴点検出結果である。Other two vanishing point images different from those in FIG. 12, (A) is a line segment detection result, and (B) is a composition feature point detection result. 2消失点画像の構図選択を示す概要図であって、(A)は構図特徴点位置、(B)は分割構図選択を示すものである。2 It is a schematic diagram which shows composition selection of a vanishing point image, (A) shows composition feature point position, (B) shows division composition selection.

以下、本発明の実施の形態に係る不動産居室画像の構図呈示方法について説明する。 Hereinafter, a method for presenting a composition of a real estate living room image according to an embodiment of the present invention will be described.

本明細書における構図特徴とは、図1(A)および図1(B)に示すように、居室画像上に現れる構図特徴点11および構図特徴線20をいう。また、構図特徴点11は、遠近法でいうところの消失点をいい、遠近法の種類によっては消失点が複数存在することになる。本発明では、1消失点または2消失点の画像(以下、1消失点画像、2消失点画像という)を対象にし、本明細書で居室画像という場合には、1消失点画像または2消失点画像をいうものとする。 As shown in FIGS. 1 (A) and 1 (B), the composition features in the present specification refer to the composition feature points 11 and the composition feature lines 20 appearing on the living room image. Further, the composition feature point 11 refers to a vanishing point in the perspective method, and there may be a plurality of vanishing points depending on the type of the perspective method. In the present invention, an image of 1 vanishing point or 2 vanishing points (hereinafter referred to as 1 vanishing point image and 2 vanishing point images) is targeted, and in the present specification, a living room image is referred to as a 1 vanishing point image or 2 vanishing point images. It shall refer to an image.

1消失点画像1は、図1(A)で示すように、正面および左右の壁の3面が写る画像である。また、構図特徴線20は、床と3面の壁の境界線、天井と3面の壁の境界線、および3面の壁と壁とのそれぞれの境界線となる。 1 Vanishing point image 1 is an image in which three surfaces of the front surface and the left and right walls are captured, as shown in FIG. 1 (A). Further, the composition feature line 20 is a boundary line between the floor and the three walls, a boundary line between the ceiling and the three walls, and a boundary line between the three walls and the wall.

2消失点画像2は、図1(B)で示すように、2面の壁と床、天井が写る画像である。また、2消失点画像2における構図特徴線20は、図1(B)で示すように、2面の壁の境界線、2面の壁と天井の境界線、2面の壁と床の境界線となる。 2 Vanishing point image 2 is an image showing two walls, a floor, and a ceiling as shown in FIG. 1 (B). Further, as shown in FIG. 1B, the composition feature line 20 in the 2 vanishing point image 2 is a boundary line between two walls, a boundary line between two walls and a ceiling, and a boundary line between two walls and a floor. It becomes a line.

図2~図4は、3分割構図31と4分割構図32の概要図である。 2 to 4 are schematic views of the three-divided composition 31 and the four-divided composition 32.

1消失点画像1の構図は、撮影構図として一般的に用いられる3分割構図31と4分割構図32の2種類を用意する。また、建築における居室のパース画像(一定の図法にあてはめて撮影される画像)を作成する際に、消失点の位置はアイライン上に位置することから、撮影時はカメラを目線の高さに構えると仮定して、構図特徴点11の位置が画像の中心に位置するようにする。 As the composition of the 1 vanishing point image 1, two types of composition, a three-division composition 31 and a four-division composition 32, which are generally used as a shooting composition, are prepared. Also, when creating a perspective image of a living room in architecture (an image taken by applying a certain composition), the vanishing point is located on the eyeline, so the camera should be at the height of the line of sight when shooting. Assuming that the image is held, the position of the composition feature point 11 is located at the center of the image.

2消失点画像2における2つの構図特徴点11の位置は、図3(A)~図3(C)および図4(A)~図4(C)に示すように、画像の中央との距離の比が3:1、1:1、1:3のいずれかになるような3種類を用意する。これはパース画像における等角投影法、および2等角投影法を参考に、コーナー10の位置が、直角2等辺3角形、および30度、60度、90度の直角3角形となるように決めるためである。また、鉛直方向の位置は1消失点画像1と同様に、画像中央とする。 2 Vanishing points The positions of the two composition feature points 11 in the image 2 are the distances from the center of the image as shown in FIGS. 3 (A) to 3 (C) and FIGS. 4 (A) to 4 (C). Prepare three types so that the ratio of is 3: 1, 1: 1, or 1: 3. This is determined so that the position of the corner 10 is a right-angled isosceles triangle and a right-angled triangle of 30 degrees, 60 degrees, and 90 degrees with reference to the equiangular projection method and the dichotomous angle projection method in the perspective image. Because. Further, the position in the vertical direction is set to the center of the image as in the case of the 1 vanishing point image 1.

また、構図特徴線(図2~図4において、鉛直および水平に描かれた線)の位置は、図3および図4に示すように、3分割構図31と4分割構図32の2種類を用いる。分割構図2種類と、構図特徴点の位置3種類の組み合わせで、計6種類の構図を用意する。 Further, as shown in FIGS. 3 and 4, two types of composition feature lines (lines drawn vertically and horizontally in FIGS. 2 to 4) are used, that is, a three-division composition 31 and a four-division composition 32. .. A total of 6 types of composition are prepared by combining 2 types of divided composition and 3 types of positions of composition feature points.

図5は、1消失点画像1または2消失点画像2の処理概要を示すフローチャート図である。 FIG. 5 is a flowchart showing a processing outline of the 1 vanishing point image 1 or the 2 vanishing point image 2.

不動産物件の居室は、その特徴として向かい合う壁が平行であり、床と天井が平行になっている。これらの境界線は、構図特徴線20とすることができる。また、床、天井や壁に境界線を用いることで、構図特徴点11の検出が可能になる。そのため、上述した境界線を検出するために、エッジ検出42を行なうのであるが、居室画像では壁と床の色が同系色であることや、白い壁が多いことからエッジ検出42が困難な場合がある。そこで、前処理Aとして画像のコントラスト調整41を行った後にエッジ検出42を行なうようにする。 The living room of a real estate property is characterized by parallel walls facing each other, and the floor and ceiling are parallel. These boundary lines can be the composition feature line 20. Further, by using a boundary line on the floor, ceiling or wall, the composition feature point 11 can be detected. Therefore, the edge detection 42 is performed in order to detect the boundary line described above, but when the edge detection 42 is difficult because the colors of the wall and the floor are similar in the living room image and there are many white walls. There is. Therefore, the edge detection 42 is performed after the contrast adjustment 41 of the image is performed as the preprocessing A.

コントラスト調整41の方法としては、CLAHE(Contrast Limited Adaptive HistogramEqualization)を用いる。CLAHEは、コントラストの制限を設けた適応的ヒストグラム平坦化である。画像を小領域に分割し、その領域ごとにヒストグラム平坦化を行う。しかし。小領域内に極端に明るい画素がある場合などには、コントラストの調整が適切に行えない。そこで、ヒストグラムに上限値を設け、上限値を超えたヒストグラムを小領域内に均等に分配してからヒストグラム平坦化を行う。CLAHEを用いることで、画像内に光源が写っている場合や、外の光が強いような部屋画像でもエッジを強調したコントラスト調整が可能である。本発明では、8×8pixelに画像を分割し、コントラストの上限値を40としている。 As a method of contrast adjustment 41, CLAHE (Contrast Limited Adaptive Histogram Equalization) is used. CLAHE is an adaptive histogram flattening with contrast limits. The image is divided into small areas, and the histogram is flattened for each area. However. If there are extremely bright pixels in a small area, the contrast cannot be adjusted properly. Therefore, an upper limit value is set in the histogram, and the histogram exceeding the upper limit value is evenly distributed in a small area, and then the histogram flattening is performed. By using CLAHE, it is possible to adjust the contrast by emphasizing the edges even when the light source is reflected in the image or even in a room image where the outside light is strong. In the present invention, the image is divided into 8 × 8 pixels, and the upper limit of the contrast is set to 40.

エッジ検出42は、コントラスト調整を行った画像に対して、canny法を用いて行う。まず、画像に5×5pixelのガウシアンフィルタをかけ、平滑化を行う。次に、RGBカラー画像をR,G,B各成分に分解し、それぞれに対してcanny法を用いてエッジ検出42を行う。その後、図6に示すように、各成分の出力値の最大値を用いて2値画像48(エッジ検出画像)を生成する。 The edge detection 42 is performed by using the canny method for the image for which the contrast has been adjusted. First, the image is smoothed by applying a 5 × 5 pixel Gaussian filter. Next, the RGB color image is decomposed into R, G, and B components, and edge detection 42 is performed for each component using the canny method. Then, as shown in FIG. 6, a binary image 48 (edge detection image) is generated using the maximum value of the output value of each component.

次に、構図特徴検出段階Bとして、Hough変換を用いて直線検出43を行い、得られた直線から構図特徴点検出44を行う。また、構図特徴点11を用いて構図特徴線を推定45し、前述した3分割構図31または4分割構図32のいずれか適する構図を選択し、補正46を行った後に呈示を行う。 Next, as the composition feature detection step B, the straight line detection 43 is performed using the Hough transform, and the composition feature point detection 44 is performed from the obtained straight line. Further, the composition feature line is estimated 45 using the composition feature point 11, a composition suitable for either the three-division composition 31 or the four-division composition 32 described above is selected, and the presentation is performed after the correction 46 is performed.

直線検出43、構図特徴点検出44、および構図特徴線の推定45は、エッジ検出42で得られた2値画像48に対して、Hough変換を用いて線分と直線の検出を行う。図7(a)は、Hough変換で検出した線分を51で、線分の端点を丸点52で表している。検出した直線に角度に対して閾値を設け、鉛直・水平、およびカメラの光軸に平行な直線成分を検出する。 The straight line detection 43, the composition feature point detection 44, and the composition feature line estimation 45 detect line segments and straight lines using the Hough transform on the binary image 48 obtained by the edge detection 42. In FIG. 7A, the line segment detected by the Hough transform is represented by 51, and the end points of the line segment are represented by round points 52. A threshold value is set for the angle of the detected straight line, and the vertical / horizontal and linear components parallel to the optical axis of the camera are detected.

また、図7(b)では、鉛直成分と水平成分を2点鎖線53、平行成分のうち傾きθが20度<θ<70度の直線を実線54、110度<θ<160度の直線を点線55で表している。また、点線55と実線54の直線の交点の座標の平均値を構図特徴点11として検出している。黒丸は検出された構図特徴点11を表している。 Further, in FIG. 7B, the vertical component and the horizontal component are the two-dot chain line 53, and among the parallel components, the straight line having the inclination θ of 20 degrees <θ <70 degrees is the solid line 54, and the straight line of 110 degrees <θ <160 degrees is drawn. It is represented by a dotted line 55. Further, the average value of the coordinates of the intersection of the straight lines of the dotted line 55 and the solid line 54 is detected as the composition feature point 11. The black circles represent the detected composition feature points 11.

Hough変換で得られた線分51の2つの端点52を用いて構図特徴線20の推定45を行う。図8に示すように、コーナー10を原点として、4つの象限に分類を行う。その後、それぞれの4つの象限から端点52を選択し、正面の壁の境界となる長方形を形成できる4つのコーナー候補52aを選択する。 The estimation 45 of the composition feature line 20 is performed using the two endpoints 52 of the line segment 51 obtained by the Hough transform. As shown in FIG. 8, classification is performed into four quadrants with the corner 10 as the origin. Then, the endpoint 52 is selected from each of the four quadrants, and the four corner candidates 52a that can form a rectangle that is the boundary of the front wall are selected.

まず、第2象限の端点52aを一つ選択する。選択した端点52aと同じY座標の点を第1象限から探索する。端点52aが存在する場合、最初に選択した点と同じX座標の点を第3象限から探索する。端点52aが存在しない(検出されない)場合は、第2象限の次の端点52aを選択し、同様に第1象限の端点を探索する。第3象限の端点52aが存在した場合、第1象限の端点のX座標、第3象限の端点のY座標を持つ端点52aを第4象限で探索を行う。 First, one end point 52a in the second quadrant is selected. A point having the same Y coordinate as the selected endpoint 52a is searched from the first quadrant. When the end point 52a exists, the point having the same X coordinate as the first selected point is searched from the third quadrant. If the end point 52a does not exist (is not detected), the end point 52a next to the second quadrant is selected, and the end point of the first quadrant is searched in the same manner. When the end point 52a of the third quadrant exists, the end point 52a having the X coordinate of the end point of the first quadrant and the Y coordinate of the end point of the third quadrant is searched in the fourth quadrant.

端点52aが存在する場合、これらの4点を用いて壁と天井、壁と床の境界線の推定を行う。第3象限または第4象限に探索した端点52が存在しない場合は、次の第2象限の端点52を選択する。このとき、探索する端点の座標は±3pixelの幅を有して探索する。長方形を形成する4つのコーナー候補52aを取り出した後、4つのコーナー候補52aへ構図特徴点11から直線を伸ばす。その直線上にある端点52の数をその4つのコーナー候補52aのスコアとしてカウントする。このとき、4つのコーナー候補52aの座標を(Cx,Cy)、構図特徴点を(VPx,VPy)、端点を(x1,y1)として、次の式を満たす端点52aが直線上にあるとする。

Figure 2022076541000002
When the end point 52a exists, the boundary line between the wall and the ceiling and the wall and the floor is estimated using these four points. If the searched endpoint 52 does not exist in the third or fourth quadrant, the next endpoint 52 in the second quadrant is selected. At this time, the coordinates of the end points to be searched have a width of ± 3pixel and are searched. After taking out the four corner candidates 52a forming the rectangle, a straight line is extended from the composition feature point 11 to the four corner candidates 52a. The number of end points 52 on the straight line is counted as the score of the four corner candidates 52a. At this time, it is assumed that the coordinates of the four corner candidates 52a are (Cx, Cy), the composition feature points are (VPx, VPy), and the end points are (x1, y1), and the end points 52a satisfying the following equation are on a straight line. ..
Figure 2022076541000002

長方形を形成できる全ての4つのコーナー候補52aでスコアのカウントを行い、スコアが一番大きいものを繋ぐ線分を構図特徴線20とする。図9に構図特徴線20の推定結果を示す。 Scores are counted for all four corner candidates 52a that can form a rectangle, and the line segment connecting the ones with the highest scores is defined as the composition feature line 20. FIG. 9 shows the estimation result of the composition feature line 20.

推定した構図特徴線20を基に、用意した構図の中から適切なものを決定し呈示する。その際、居室によって壁のアスペクト比は異なるため、分割構図をそのまま呈示しても、構図特徴線20と一致しない。そのため、構図特徴線20のアスペクト比を用いて用意した構図の補正46を行う。3分割構図31、4分割構図32の分割線を検出した構図特徴線20を基に、図10(a)~図10(c)、図11(a)~図11(c)のようにアスペクト比を鉛直方向、水平方向に補正を行う。 Based on the estimated composition feature line 20, an appropriate composition is determined and presented from the prepared compositions. At that time, since the aspect ratio of the wall differs depending on the living room, even if the divided composition is presented as it is, it does not match the composition feature line 20. Therefore, the composition correction 46 prepared by using the aspect ratio of the composition feature line 20 is performed. Aspects as shown in FIGS. 10 (a) to 10 (c) and FIGS. 11 (a) to 11 (c) based on the composition feature line 20 in which the dividing lines of the three-divided composition 31 and the four-divided composition 32 are detected. Correct the ratio vertically and horizontally.

得られた構図特徴線20の長方形の各辺と、各構図の分割線との距離を計算し、距離の合計が一番短い構図を選択し呈示する。この画像の場合、鉛直方向に補正を行った4分割構図が選択される。 The distance between each side of the rectangle of the obtained composition feature line 20 and the dividing line of each composition is calculated, and the composition having the shortest total distance is selected and presented. In the case of this image, a quadrant composition corrected in the vertical direction is selected.

上述した図7~図11を用いた説明は、1消失点画像1における構図呈示方法を示しているが、2消失点画像2についても、同様に行うことができる。以下、図12および図13を用いて、2消失点画像2の場合について説明する。 The above-mentioned explanation using FIGS. 7 to 11 shows the composition presentation method in the 1 vanishing point image 1, but the same can be applied to the 2 vanishing point image 2. Hereinafter, the case of the 2 vanishing point image 2 will be described with reference to FIGS. 12 and 13.

1消失点画像1と同様に、エッジ画像からHough変換を用いて線分と直線の検出を行う。図12(a)は、Hough変換で検出した線分を実線51で、線分の端点を丸点52で表している。検出した直線に角度に対して閾値を設けて分類し、水平成分と2つの構図特徴点11へ収束する直線の検出を行う。 1 Vanishing point Similar to the image 1, line segments and straight lines are detected from the edge image using the Hough transform. In FIG. 12A, the line segment detected by the Hough transform is represented by a solid line 51, and the end point of the line segment is represented by a round point 52. The detected straight line is classified by setting a threshold value for the angle, and the horizontal component and the straight line converging to the two composition feature points 11 are detected.

図12(B)では、鉛直成分を2点鎖線61、左の構図特徴点11へ収束する直線を点線63、右の構図特徴点11へ収束する直線を実線62で表している。2つの構図特徴点11は、点線63の交点および実線62の交点のそれぞれを平均値を用いて検出する。このとき、検出した構図特徴点11から80pixel以上距離のあるノイズとなる交点を除外して残りの交点の平均値で再検出する。これを除外点がなくなるまで繰り返し、構図特徴点11を決定する。 In FIG. 12B, the vertical component is represented by a two-dot chain line 61, a straight line that converges to the composition feature point 11 on the left is represented by a dotted line 63, and a straight line that converges to the composition feature point 11 on the right is represented by a solid line 62. The two composition feature points 11 detect each of the intersection of the dotted line 63 and the intersection of the solid line 62 using an average value. At this time, the intersections that are noise with a distance of 80 pixels or more from the detected composition feature points 11 are excluded, and the average value of the remaining intersections is used for re-detection. This is repeated until there are no exclusion points, and the composition feature point 11 is determined.

実線51の端点52(丸点)を用いて構図特徴線20の推定を行う。検出した端点52を構図特徴点11よりY座標が大きいものと小さいものに分類する。その後、上側の端点を順番に選択し、同じX座標の端点52を下側の端点52から探索する。下側の端点52が存在する場合、2端点52を用いて構図特徴線20の推定を行う。2端点52へ構図特徴点11から直線を伸ばし、1消失点画像1と同様に、直線上にある端点52の数をスコアとしてカウントする。 The composition feature line 20 is estimated using the end points 52 (round points) of the solid line 51. The detected end points 52 are classified into those having a larger Y coordinate than the composition feature point 11 and those having a smaller Y coordinate. After that, the upper end points are selected in order, and the end points 52 having the same X coordinate are searched from the lower end points 52. When the lower end point 52 is present, the composition feature line 20 is estimated using the two end points 52. A straight line is extended from the composition feature point 11 to the two end points 52, and the number of end points 52 on the straight line is counted as a score as in the case of the one vanishing point image 1.

下側の端点52が存在しない場合は、再び上側の点を選択し、下側の端点52の探索を行う。しかし、2消失点画像2の場合、居室のコーナー10が奥にあることから、図13(a)のZ部に示すように、影の影響などにより線分検出でコーナー10まで検出されない場合がある。そのため、検出した直線からコーナー候補52aの点を追加する。図13(b)は点線63と実線62の交点を4角点64で表している。この4角点64をコーナー候補52aの点として追加することで、部屋の奥にあるコーナー10を検出することができる。 If the lower end point 52 does not exist, the upper point is selected again and the lower end point 52 is searched. However, in the case of the 2 vanishing point image 2, since the corner 10 of the living room is in the back, as shown in the Z portion of FIG. 13 (a), the line segment may not be detected up to the corner 10 due to the influence of a shadow or the like. be. Therefore, the point of the corner candidate 52a is added from the detected straight line. In FIG. 13B, the intersection of the dotted line 63 and the solid line 62 is represented by a square point 64. By adding the four corner points 64 as the points of the corner candidate 52a, the corner 10 in the back of the room can be detected.

同じX座標となるすべての2点でスコアのカウントを行い、スコアが一番大きいものを構図特徴線20とする。また、2点を結んだ線分を壁と壁の境界線とする。 The score is counted at all two points having the same X coordinate, and the one with the highest score is defined as the composition feature line 20. In addition, the line segment connecting the two points is defined as the boundary line between the walls.

推定した構図特徴線20を基に、用意した構図の中から適切な構図を決定し呈示する。まず、構図特徴点11の位置を決定する。検出した2つの構図特徴点11の距離を測定し、その距離を4等分した距離をdとする。図14(a)に示すように、構図特徴点11の位置が中心からの距離の比が1:3、1:1、3:1となる点11a、11b、11cを用意する。それぞれの点11a、11b、11cと構図特徴点11の距離を測定し、一番近いものを選択する。 Based on the estimated composition feature line 20, an appropriate composition is determined and presented from the prepared composition. First, the position of the composition feature point 11 is determined. The distance between the two detected composition feature points 11 is measured, and the distance obtained by dividing the distance into four equal parts is defined as d. As shown in FIG. 14A, points 11a, 11b, and 11c are prepared in which the ratio of the distances from the positions of the composition feature points 11 to the center is 1: 3, 1: 1, 3: 1. The distance between each of the points 11a, 11b, 11c and the composition feature point 11 is measured, and the closest one is selected.

次に、分割構図の決定を行う。検出された構図特徴線20の中で、壁と壁の境界線を用いる。図14(b)のように、3分割構図31の分割線31aと4分割構図32の分割線32aをそれぞれ用意する。壁と壁の境界線と分割線31a、32aとの距離を測定し、一番近い分割線31a、31bを選択する。呈示構図の選択後、分割線31a、31bの決定と同様に、構図特徴線20の壁と壁の境界線を用いて補正を行う。この補正は、構図特徴線20の距離を測定し、中心から同じ距離になる位置に構図の呈示位置を決定する。 Next, the division composition is determined. Among the detected composition feature lines 20, the boundary line between walls is used. As shown in FIG. 14B, the dividing line 31a of the three-divided composition 31 and the dividing line 32a of the four-divided composition 32 are prepared, respectively. The distance between the wall-to-wall boundary line and the dividing lines 31a and 32a is measured, and the nearest dividing line 31a and 31b are selected. After selecting the presentation composition, correction is performed using the wall-to-wall boundary line of the composition feature line 20 in the same manner as in the determination of the dividing lines 31a and 31b. This correction measures the distance of the composition feature line 20 and determines the composition presentation position at the same distance from the center.

以上の方法によって、1消失点画像1および2消失点画像2についてそれぞれ構図呈示の検証を行った。1消失点画像1では、9枚の画像のうち、5枚に対して構図を呈示することができた。また、2消失点画像2では、27枚の画像のうち、22枚に対して構図を呈示することができた。 By the above method, the composition presentation was verified for each of the 1 vanishing point image 1 and the 2 vanishing point image 2. In the 1 vanishing point image 1, the composition could be presented to 5 of the 9 images. Further, in the 2 vanishing point image 2, the composition could be presented to 22 of the 27 images.

本発明に係る不動産居室画像の構図呈示方法は、撮影者である不動産会社の社員が使用するカメラ付き携帯やスマートフォン(以下、携帯端末という)にアプリケーションとしてインストール(格納)することで使用することができる。例えば、本発明の方法によって携帯端末の画面上に構図を呈示し、撮影者の撮影動作の支援を行うようにする。この撮影支援は、例えば、画面上の画像と構図とを対比して、撮影者にカメラの向きを上下左右のいずれかの方向に動かす動作を指示したり、画面上に表示されている居室画像のバランスが良いこと或いは悪いことを示唆したりする。このような動作の指示或いは示唆は、携帯端末の画面上に文字或いは記号で表示することもできるし、音声によって撮影者に伝達することもできる。 The method for presenting the composition of a real estate living room image according to the present invention can be used by installing (storing) it as an application on a camera-equipped mobile phone or smartphone (hereinafter referred to as a mobile terminal) used by an employee of a real estate company who is a photographer. can. For example, the method of the present invention is used to present a composition on the screen of a mobile terminal to support the shooting operation of the photographer. This shooting support, for example, compares the image on the screen with the composition and instructs the photographer to move the camera in either the up, down, left, or right direction, or the living room image displayed on the screen. It suggests that the balance is good or bad. Instructions or suggestions for such operations can be displayed in characters or symbols on the screen of the mobile terminal, or can be transmitted to the photographer by voice.

また、撮影者が携帯端末で撮影する際に、画面上の画像と呈示された構図とが一致したときに、自動的に画像を撮影する(データとして取り込む)ような自動撮影モードを設けることもできる。この自動撮影モードによれば、瞬間的なシャッターチャンスを逃すおそれがなくなり、写真撮影を容易に行えるようになる。また、撮影者がシャッターを手動で操作する手間を省くことで、撮影者の撮影操作を軽減することができる。さらには、自動撮影モードと手動撮影モードを選択可能なモード切り替え機能を設け、必要に応じて手動でシャッターを操作できるようにしてもよい。 It is also possible to provide an automatic shooting mode in which the photographer automatically shoots an image (captures it as data) when the image on the screen matches the presented composition when shooting with a mobile terminal. can. With this automatic shooting mode, there is no risk of missing a momentary photo opportunity, and photography can be easily performed. Further, by eliminating the trouble of manually operating the shutter by the photographer, it is possible to reduce the shooting operation of the photographer. Further, a mode switching function capable of selecting an automatic shooting mode and a manual shooting mode may be provided so that the shutter can be manually operated as needed.

また、サーバーとして機能するパーソナルコンピュータと、このサーバーとインターネット回線を通じて連結されたカメラを使用し、このカメラの画面上にパーソナルコンピュータからの指令によって構図を呈示したり、撮影支援を行うようにする。 In addition, a personal computer that functions as a server and a camera that is connected to this server via an internet line will be used, and the composition will be presented on the screen of this camera according to a command from the personal computer, and shooting support will be provided.

さらに、画像処理機能を備えるパーソナルコンピュータに撮影した居室画像データを取り込み、撮影した居室画像に構図を呈示することで、全体的に撮影バランスの悪い画像の一部から、バランスのとれた構図の画像を抽出することができる。この場合、画像の中で不必要な領域をトリミングする機能なども付加することもできる。 Furthermore, by capturing the image data of the living room taken by a personal computer equipped with an image processing function and presenting the composition to the taken living room image, an image of a well-balanced composition can be seen from a part of the image having an unbalanced shooting as a whole. Can be extracted. In this case, it is possible to add a function of trimming an unnecessary area in the image.

また、携帯端末やカメラを用いて動画を撮影し、この動画データに構図を呈示することで、動画中のバランスのとれたワンショット画像をスクリーンショットとして抜き出すようにすることもできる。このスクリーンショットは、自動或いは手動で行えるようにすることができる。この作業は、携帯端末やカメラにインストールされたアプリケーションによって自動的に行うようにしてもよく、動画データを取り込んだパーソナルコンピュータ上でソフトウェアを用いて行うようにしてもよい。 It is also possible to shoot a moving image using a mobile terminal or a camera and present a composition to the moving image data so that a well-balanced one-shot image in the moving image can be extracted as a screenshot. This screenshot can be done automatically or manually. This work may be performed automatically by an application installed in a mobile terminal or a camera, or may be performed by using software on a personal computer that has captured video data.

上述したパーソナルコンピュータは、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、GPU(Graphical Processing Unit)、I/F(Interface)、バス、および、表示装置を有している。なお、HDDの代わりに、または、HDDに加えてSSD(Solid State Drive)を備えるようにしてもよい。HDD或いはSSDの内部には、本発明の不動産居室画像の構図呈示方法を実行するためのソフトウェア(プログラム)が格納されており、これらのハードウエア資源とソフトウェア資源とが協働して処理を行うようになっている。 The personal computer described above includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), a GPU (Graphical Processing Unit), an I / F (Interface), and the like. It has a bus and a display device. An SSD (Solid State Drive) may be provided in place of the HDD or in addition to the HDD. Inside the HDD or SSD, software (program) for executing the method for presenting the composition of the real estate living room image of the present invention is stored, and these hardware resources and software resources cooperate to perform processing. It has become like.

本発明の実施の形態に係る不動産居室画像の構図呈示方法では、居室画像に対して、canny法を用いてエッジ検出42を行い、エッジ検出42を行った居室画像に対して、Hough変換を用いて直線検出43を行い、直線検出43によって得られた線分51から構図特徴点11を検出しているので、検出した構図特徴点11に基づいて居室画像に最適な構図を選択・適用することができる。そのため、この構図によって居室画像のバランスを撮影者の感覚ではなく機械的に確認できるので、画像の出来映え、品質にばらつきが少なく、品質の安定した居室画像を提供することができる。 In the method for presenting the composition of the real estate living room image according to the embodiment of the present invention, the edge detection 42 is performed on the living room image by using the canny method, and the Hough transform is used for the living room image on which the edge detection 42 is performed. Since the straight line detection 43 is performed and the composition feature point 11 is detected from the line segment 51 obtained by the straight line detection 43, the optimum composition for the living room image is selected and applied based on the detected composition feature point 11. Can be done. Therefore, since the balance of the living room image can be confirmed mechanically instead of the sense of the photographer by this composition, it is possible to provide a living room image with stable quality with little variation in image quality and quality.

また、居室画像をX軸およびY軸を用いて4つの象限に分類し、4つの象限のそれぞれでコーナー10を検出しているので、画像の正面に四角く撮影される壁の4隅をコーナー10として検出し易い。また、4つのコーナー10から、消失点を容易に決定することができる。 Further, since the living room image is classified into four quadrants using the X-axis and the Y-axis and the corner 10 is detected in each of the four quadrants, the four corners of the wall photographed in a square in front of the image are the corner 10. Easy to detect. Further, the vanishing point can be easily determined from the four corners 10.

さらに、検出したコーナー10を通る延長した線分51に基づいて、構図特徴線20を推定しているので、居室画像から壁、床、天井のそれぞれの境界線が把握し難い場合であっても、構図特徴線20を推定するこができる。 Further, since the composition feature line 20 is estimated based on the extended line segment 51 passing through the detected corner 10, even if it is difficult to grasp the boundary lines of the wall, floor, and ceiling from the living room image. , The composition feature line 20 can be estimated.

また、構図特徴点11および構図特徴線20に基づいて、3分割構図または4分割構図を選択しているので、居室画像を撮影する際に、複数のカメラのアングルが選択でき、選択したそれぞれでバランスのよい画像を撮影することができる。 Further, since the three-division composition or the four-division composition is selected based on the composition feature point 11 and the composition feature line 20, the angles of a plurality of cameras can be selected when taking a living room image, and each of the selected angles can be selected. You can take a well-balanced image.

さらにまた、推定した構図特徴線20のアスペクト比を用いて、選択した3分割構図または4分割構図の補正を行うので、居室によって壁のアスペクト比が異なっていても、用意した構図に適応させてバランスのよい画像を撮影することができる。 Furthermore, since the selected 3-division composition or 4-division composition is corrected using the estimated aspect ratio of the composition feature line 20, even if the aspect ratio of the wall differs depending on the living room, it can be adapted to the prepared composition. You can take a well-balanced image.

以上、本発明の実施の形態に係る不動産居室画像の構図呈示方法について述べたが、本発明は既述の実施形態に限定されるものではなく、本発明の技術思想に基づいて各種の変形および変更が可能である。
本発明の方法では、canny法やHough変換を用いて構図特徴を決定しているが、他の手法を用いることもできる。他の方法とは、例えば、LSD(Line Segment Detector)である。このLSDとは、画像上の局所的に直線の輪郭を検出することを目的とするものである。輪郭とは、グレーレベルが暗から明、またはその逆に十分に速く変化している画像のゾーンをいう。LSDの特徴としては、Hough変換よりも短い線分をたくさん検出する傾向があるため、LSDを用いる場合には、複数の線分を統合して処理する工程を追加する必要がある。
Although the method for presenting the composition of the real estate living room image according to the embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications and modifications are made based on the technical idea of the present invention. It can be changed.
In the method of the present invention, the composition characteristics are determined by using the canny method and the Hough transform, but other methods can also be used. Another method is, for example, LSD (Line Segment Detector). The purpose of this LSD is to detect the contour of a straight line locally on an image. A contour is a zone of an image in which the gray level changes from dark to light and vice versa fast enough. As a feature of LSD, there is a tendency to detect a lot of line segments shorter than the Hough transform, so when using LSD, it is necessary to add a step of integrating and processing a plurality of line segments.

また、将来的にcanny法やHough変換に代替する他の方式が開発された場合であっても、これらの方式と同等な性能を有し、本発明の思想に基づき代替して使用することができるものである場合には、これらの他の方式も権利範囲に含まれるものとする。 Further, even if another method is developed to replace the canny method or the Hough transform in the future, it has the same performance as these methods and can be used as a substitute based on the idea of the present invention. If possible, these other methods shall also be included in the scope of rights.

1 居室画像(1消失点画像)
2 居室画像(2消失点画像)
10 コーナー
11 構図特徴点
11a 構図特徴点位置(1:3)
11b 構図特徴点位置(1:1)
11c 構図特徴点位置(3:1)
20 構図特徴線
31 3分割構図
31a 3分割線
32 4分割構図
32a 4分割線
41 コントラスト調整
42 エッジ検出
43 直線検出
44 構図特徴点検出
45 構図特徴線推定
46 撮影構図の補正・選択
48 2値画像
51 線分
52 端点
52a コーナー候補
A 前処理
B 構図特徴検出
C 構図呈示
1 living room image (1 vanishing point image)
2 Living room image (2 vanishing point image)
10 Corner 11 Composition Feature Point 11a Composition Feature Point Position (1: 3)
11b Composition feature point position (1: 1)
11c Composition feature point position (3: 1)
20 Composition feature line 31 3 division composition 31a 3 division line 32 4 division composition 32a 4 division line 41 Contrast adjustment 42 Edge detection 43 Straight line detection 44 Composition feature point detection 45 Composition feature line estimation 46 Correction / selection of shooting composition 48 Binary image 51 Lines 52 End points 52a Corner candidates A Pretreatment B Composition feature detection C Composition presentation

Claims (5)

不動産居室の画像を撮影する際に、カメラに構図を呈示するための不動産居室画像の構図呈示方法であって、
居室画像に対して、エッジ検出を行い、
前記エッジ検出を行った前記居室画像に対して、直線検出を行い、
前記直線検出によって得られた線分から構図特徴点を検出する
ことを特徴とする不動産居室画像の構図呈示方法。
It is a method of presenting the composition of the real estate living room image to show the composition to the camera when taking the image of the real estate living room.
Edge detection is performed on the living room image, and
A straight line detection was performed on the living room image from which the edge detection was performed.
A method for presenting a composition of a real estate living room image, which comprises detecting a composition feature point from a line segment obtained by the straight line detection.
前記居室画像をX軸およびY軸を用いて4つの象限に分類し、4つの前記象限のそれぞれでコーナーを検出したことを特徴とする請求項1に記載の不動産居室画像の構図呈示方法。 The method for presenting a composition of a real estate living room image according to claim 1, wherein the living room image is classified into four quadrants using the X-axis and the Y-axis, and corners are detected in each of the four quadrants. 検出した前記構図特徴点と前記コーナーとを通る延長した線分に基づいて、構図特徴線を推定したことを特徴とする請求項2に記載の不動産居室画像の構図呈示方法。 The method for presenting a composition of a real estate living room image according to claim 2, wherein the composition feature line is estimated based on the detected line segment extending through the composition feature point and the corner. 前記構図特徴点および前記構図特徴線に基づいて、3分割構図または4分割構図を選択することを特徴とする請求項1から請求項3のいずれか1つに記載の不動産居室画像の構図呈示方法。 The method for presenting a composition of a real estate living room image according to any one of claims 1 to 3, wherein a three-divided composition or a four-divided composition is selected based on the composition feature points and the composition feature lines. .. 推定した前記構図特徴線のアスペクト比を用いて、選択した前記3分割構図または前記4分割構図の補正を行うことを特徴とする請求項4に記載の不動産居室画像の構図呈示方法。 The method for presenting a composition of a real estate living room image according to claim 4, wherein the selected three-divided composition or the four-divided composition is corrected using the estimated aspect ratio of the composition feature line.
JP2020186936A 2020-11-10 2020-11-10 Method for presenting composition of real-estate living room image Pending JP2022076541A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020186936A JP2022076541A (en) 2020-11-10 2020-11-10 Method for presenting composition of real-estate living room image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020186936A JP2022076541A (en) 2020-11-10 2020-11-10 Method for presenting composition of real-estate living room image

Publications (1)

Publication Number Publication Date
JP2022076541A true JP2022076541A (en) 2022-05-20

Family

ID=81618317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020186936A Pending JP2022076541A (en) 2020-11-10 2020-11-10 Method for presenting composition of real-estate living room image

Country Status (1)

Country Link
JP (1) JP2022076541A (en)

Similar Documents

Publication Publication Date Title
CN109409366B (en) Distorted image correction method and device based on angular point detection
US9019426B2 (en) Method of generating image data by an image device including a plurality of lenses and apparatus for generating image data
US20160142627A1 (en) Image capturing device and digital zooming method thereof
US8861892B2 (en) Method and apparatus for determining projection area of image
CN106469444B (en) Rapid image fusion method for eliminating splicing gap
US11695812B2 (en) Sharing physical writing surfaces in videoconferencing
WO2007064495A2 (en) Adjusting digital image exposure and tone scale
CN108063928B (en) A kind of image automatic adjusting method, device and the electronic equipment of projector
WO2007064465A1 (en) Detecting objects of interest in digital images
JP6798752B2 (en) How to generate a corrected image, how to generate a selection image of writing or drawing drawn on one or two adjacent pages of a notebook or agenda, a computer program for a PC, or a mobile for a smartphone or tablet computer application
JP2017138647A (en) Image processing device, image processing method, video photographing apparatus, video recording reproduction apparatus, program and recording medium
JP5818552B2 (en) Image processing apparatus, image processing method, and program
JP2013025650A (en) Image processing apparatus, image processing method, and program
US20210056668A1 (en) Image inpainting with geometric and photometric transformations
US20190355101A1 (en) Image refocusing
CN111815517A (en) Self-adaptive panoramic stitching method based on snapshot pictures of dome camera
CN110689501A (en) Distortion correction method and device, electronic equipment and computer readable storage medium
TW201707438A (en) Electronic device and image processing method
WO2017190415A1 (en) Image optimization method and device, and terminal
JP7387261B2 (en) Information processing device, information processing method and program
JP6851089B2 (en) Adaptive 3D space generation method and its system
JP2022076541A (en) Method for presenting composition of real-estate living room image
US20210281742A1 (en) Document detections from video images
US9033517B2 (en) Image processing method, and recording medium storing image processing control program
CN113592753B (en) Method and device for processing image shot by industrial camera and computer equipment

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201130