JP2006254424A - "information processing related object for making three-dimensional five senses by which plane image information jumps out before one's eyes" that possesses space information related object - Google Patents

"information processing related object for making three-dimensional five senses by which plane image information jumps out before one's eyes" that possesses space information related object Download PDF

Info

Publication number
JP2006254424A
JP2006254424A JP2006031345A JP2006031345A JP2006254424A JP 2006254424 A JP2006254424 A JP 2006254424A JP 2006031345 A JP2006031345 A JP 2006031345A JP 2006031345 A JP2006031345 A JP 2006031345A JP 2006254424 A JP2006254424 A JP 2006254424A
Authority
JP
Japan
Prior art keywords
information
image information
image
same
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006031345A
Other languages
Japanese (ja)
Other versions
JP5360340B2 (en
Inventor
Mitsuhiro Kawasaki
光洋 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2006031345A priority Critical patent/JP5360340B2/en
Publication of JP2006254424A publication Critical patent/JP2006254424A/en
Application granted granted Critical
Publication of JP5360340B2 publication Critical patent/JP5360340B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology that obtains and reproduces five senses of each scene of a plane image having a space three-dimensionally and in each space, in a region where the five senses jump out before one's eyes possibly being a binocular parallax. <P>SOLUTION: An element, which executes information processing on a dual-form amalgamation, a dual-group amalgamation, a dual-form group amalgamation, a dual-separation/convergence amalgamation, five senses, other images, an A-moving image group, camera photographing, five-sense sensors, person recognition, person estimation, controls and languages, is selected by comparing information on sounds, persons, living beings, substances, characters, camera photographing, five-sensor sensors, person recognition, person estimation, controls and languages that a plane image having a space comprises, with "information on these items on a time axis", thus causing the dual-separation/convergence amalgamation. By the dial-separation/convergence amalgamation, the selected five senses of an impressed scene can be obtained and reproduced on the plane image having the space, in the region where the five senses jump out before one's eyes possibly being the binocular parallax. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、平面画像情報を伴う 画像情報関連物の分野を、核とした、前記画像情報関連物の分野と 単方向、もしくは、双方向で、繋がっている空間情報関連物の分野で 利用できる技術分野に 関するものである。 INDUSTRIAL APPLICABILITY The present invention can be used in the field of spatial information-related objects that are connected unidirectionally or bidirectionally to the field of image information-related objects, with the field of image information-related objects accompanying planar image information as the core. It relates to the technical field.

前記 核とする画像情報関連物の分野は、画像情報が、保持している 平面画像情報、同音情報分野・同視覚情報分野・同聴覚情報分野・同嗅覚情報分野・同触覚情報分野・同味覚情報分野・同情報処理分野を、単方向、もしくは、双方向で、繋がっている1箇所以上に存在する平面画像情報上で、立体的に、再現、処理する技術分野を 中心としたものに関するものである。 The field of image information related products as the core is the planar image information held by the image information, the same sound information field, the same visual information field, the same auditory information field, the same olfactory information field, the same tactile information field, and the same taste. Information fields and information processing fields that are centered on technical fields that are three-dimensionally reproduced and processed on planar image information that exists in one or more connected locations in one or both directions. It is.

同様に、前記 核となる画像情報関連物の分野と 単方向、もしくは、双方向で、繋がっている空間情報関連物が、保持している 平面画像情報分野・同音情報分野・同視覚情報分野・同聴覚情報分野・同嗅覚情報分野・同触覚情報分野・同味覚情報分野・同情報処理分野を、単方向、もしくは、双方向で、1箇所以上に存在する実在空間で、立体的に、再現、処理する技術分野に 関するものである。 Similarly, the spatial image-related objects that are connected to the core image information-related fields unidirectionally or bidirectionally are held in the planar image information field, the sound information field, the visual information field, The auditory information field, the olfactory information field, the haptic information field, the gustatory information field, and the information processing field are reproduced three-dimensionally in one or more real spaces that exist in one or more locations. It relates to the technical field to be processed.

また、前記 平面画像情報を 画像情報内・実在空間内で、立体的に再現する技術分野は、従来の立体視できる画像情報技術よりも、さらに飛び出し、両眼視差画像情報と同レベル以上の 目前にまで迫るレベル領域に関するものである。 In addition, the technical field for stereoscopically reproducing the planar image information in the image information / real space is more advanced than the conventional stereoscopic image information technology, which is more than the same level as the binocular parallax image information. It is related to the level area that approaches.

『 用語 』の説明。
『情報』とは、
画像情報、平面画像情報、5感覚情報、空間情報、処理情報、コンピュータ言語情報、および、その他の情報が 存在し、前記各1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせから 構成されている。
Explanation of terminology.
“Information”
There is image information, planar image information, five sensory information, spatial information, processing information, computer language information, and other information, and each one or more of the above, one or more of the same combinations, or similar various overlays. It consists of a combination.

一般的前提として、情報の出現、ないし、派生は、人が、情報として、認識した時、情報として、出現、ないし、派生することになる、人の認識以前には、前記情報は、存在していないのと同じ状態であるからである。
つまり、情報とは、人により認識されることにより、この世に生み出されるカテゴリィに、属するものであり、人の認識力と 密接に、正比例している存在物である。
As a general premise, the appearance or derivation of information, when a person recognizes it as information, will appear or be derived as information. It is because it is in the same state as not.
In other words, information belongs to a category created in this world by being recognized by people, and is an entity that is in direct proportion to human cognitive power.

従って、情報は、人の認識方法により、分類することもできることになる。 Therefore, information can also be classified according to a person's recognition method.

『 画像、もしくは、画像情報 』とは、
本画像情報には、従来の画像情報と、極めて簡単な例であるコンピュータプログラム言語などを 例とする各種ディジタル情報・ディジタル情報処理情報が入る。
半導体電流を、オン・オフして、成立する極めて簡単な例であるコンピュータプログラム言語などを 例とする各種ディジタル情報は、半導体電流を オン・オフする行為を 伴った前記ディジタル情報として、画像情報内に、入る。
"Image or image information"
This image information includes conventional image information and various digital information / digital information processing information such as a computer program language which is a very simple example.
Various digital information, such as a computer program language, which is a very simple example that is established by turning on and off the semiconductor current, is included in the image information as the digital information accompanied by the action of turning on and off the semiconductor current. to go into.

何故ならば、半導体電流を、オン・オフする行為を 伴った前記ディジタル情報は、人が、視覚情報として、構築・創造していく行為の情報であり、カテゴリィとしては、視覚言語としての視覚情報、つまり、可視画像情報の1部として、半導体電流を、オン・オフする行為を 伴った可視画像情報と認識されるため、本画像情報のカテゴリィに、属するものである。 This is because the digital information accompanied by the action of turning on and off the semiconductor current is information of an action that a person constructs and creates as visual information, and as a category, visual information as a visual language. That is, as a part of the visible image information, the semiconductor current is recognized as visible image information accompanied by an action of turning on / off, and therefore belongs to the category of the present image information.

極めて簡単な例として、具体的に述べると、
「平面画像情報物、立体物、および、想い描いた画像情報から得られる画像情報」「ディジタル、もしくは/および、アナログデータ画像情報」「ディジタル、もしくは/および、アナログデータ情報」「コンピュータプログラム言語情報」「ディジタル、もしくは/および、アナログ情報」「人情報」「物情報」「動物、植物等の生物情報」「形状情報」「模様情報」「文字情報」「カメラ類撮影状況情報」「前記情報を除いた平面画像情報」「人が認識できる 私的・地域的・公知的 概念認識情報」「人が持つ私的・地域的・公知的連想推定情報」「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」「コンピュータプログラム言語情報の処理情報」「平面画像情報」「映像情報」「動画画像情報」
『「画像情報」から、私的・地域的・公知的に連想推定される、および、同概念認識される「視覚」「聴覚」「嗅覚」「味覚」、および、「触覚」の各情報』・
「視覚計測センサー類で観測される情報」・「触覚計測センサー類で観測される情報」・「嗅覚計測センサー類で観測される情報」・「味覚計測センサー類で観測される情報」・「聴覚計測センサー類で観測される情報」
As a very simple example,
"Image information obtained from planar image information object, three-dimensional object, and desired image information""Digital or / and analog data image information""Digital or / and analog data information""Computer program language information “Digital or / and analog information” “Personal information” “Material information” “Biological information of animals, plants, etc.” “Shape information” “Pattern information” “Text information” “Camera shooting status information” “The above information Plane image information excluding ”,“ Personal, regional, and publicly known concept recognition information that humans can recognize ”“ Personal, regional, and publicly known association estimation information possessed by humans ”“ Control units, control devices, and control devices ” Processing information of any kind of control system, etc. "" Processing information of computer program language information "" Planar image information "" Video information "" Movie image information "
“Information of“ sight ”,“ auditory ”,“ olfactory ”,“ taste ”, and“ tactile ”that are associated with personal, regional, and publicly known from“ image information ”and recognized as the same concept”・
"Information Observed with Visual Sensors", "Information Observed with Tactile Sensors", "Information Observed with Olfactory Sensors", "Information Observed with Taste Sensors", "Hearing Information Observed with Measurement Sensors "

更に、『以上全ての時間軸(過去・現在・未来)上の「画像情報」』
『以上全ての平均値・偏差値上の「画像情報」』
『以上全ての内、1以上の 様々な組み合わせから生まれる情報 との比較で「変化」「繰り返し」「異変」「増加」「減少」「拡大」「縮小」「伸張」「圧縮」「同等」「一致」「近似」「類似」「同類」「関連」「差異」「交差」「重層」「近接」「接触」「遠接」「離反」「傾斜」「回転」「反転」「突き破り」「目前」「通過」「比例」「反比例」「高」「低」「大」「小」「上」「下」「右」「左」「北」「南」「西」「東」、および、「無関係」の各情報と、照合する情報処理用処理情報』
In addition, “Image information” on all time axes (past, present, future)
“All the above image values on the average and deviation values”
“By comparison with information born from various combinations of one or more of all of the above,“ change ”“ repetition ”“ abnormality ”“ increase ”“ decrease ”“ expansion ”“ decompression ”“ expansion ”“ compression ”“ equivalent ”“ Match, Approximate, Similar, Similar, Related, Difference, Crossing, Multilayer, Proximity, Contact, Distant, Separation, Tilt, Rotation, Flip, Breakthrough, Immediate ”“ Pass ”“ Proportional ”“ Inverse proportion ”“ High ”“ Low ”“ Large ”“ Small ”“ Up ”“ Down ”“ Right ”“ Left ”“ North ”“ South ”“ West ”“ East ”, and“ Information processing information to be checked against each piece of irrelevant information ”

更に、『「両形融合画像情報の処理」・「両組融合画像情報の処理」・「両形組融合画像情報の処理」・「両離輻輳融合画像情報の処理」・「画像情報の処理」・「視覚情報の処理」・「音情報の処理」・「聴覚情報の処理」・「嗅覚情報の処理」・「触覚情報の処理」・「味覚情報の処理」・「人が認識できる 私的・地域的・公知的 概念認識情報の処理」・「人が推定できる 私的・地域的・公知的 連想推定情報の処理」、および、「制御部類・制御装置類・制御機器類・制御システム類のいずれかの各情報別の処理」「コンピュータプログラム言語情報の処理」の内、「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる処理情報」』 Furthermore, "" Processing of both forms fusion image information "," Processing of both sets of fusion image information "," Processing of both forms combination image information "," Processing of both deconvergence fusion image information "," Processing of image information " "Processing of visual information" "Processing of sound information" "Processing of auditory information" "Processing of olfactory information" "Processing of tactile information" "Processing of taste information" "Person who can recognize me ”Processing of conceptual, regional, and publicly known concept recognition information”, “Processing of personal, regional, and publicly known association estimation information that can be estimated by humans”, and “Control units, control devices, control devices, and control systems” "Processing for each type of information" or "Processing for computer program language information" "Processing information consisting of various combinations of one or more, one or more of the same, or similar various superpositions"]

更に、『「情報演算」・「情報検索」・「情報受信」・「情報入力」・「情報記憶」・「情報記録」・「情報照合」・「情報制御」・「情報実行」・「情報加工」・「情報出力」・「情報再生」・「情報印刷」・「情報表示」、および、「情報送信」の内、「各いずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる処理情報」』
「従来の立体画像情報」「輝度画像情報」「飽和度画像情報」「明度画像情報」「色相画像情報」「像輪郭線画像情報」、「A5感空間を携える画像情報」、および、「その他の画像情報」において、前記全ての1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる画像情報を言う。
In addition, “Information calculation”, “Information search”, “Information reception”, “Information input”, “Information storage”, “Information recording”, “Information verification”, “Information control”, “Information execution”, “Information” "Processing", "Information output", "Information reproduction", "Information printing", "Information display", and "Information transmission", "Any one or more, various combinations of the same one or more, or the same Processing information consisting of various overlays "
“Conventional stereoscopic image information” “Luminance image information” “Saturation image information” “Brightness image information” “Hue image information” “Image contour image information”, “Image information carrying A5 sensation space”, and “Others” In the "image information", the image information is composed of all the one or more, various combinations of the same one or more, or similar various overlays.

『画像情報関連物』とは、
画像情報を 含んでいる画像情報に、直接・間接に関係する関連したものを 総称して、言う。具体的には、「画像情報処理装置」と「画像情報保持物」から構成される。
What is "image information related"?
Collectively refers to image information that includes image information and related items that are directly or indirectly related. Specifically, it is composed of an “image information processing apparatus” and an “image information holding object”.

『 平面画像、もしくは、平面画像情報 』とは、
本平面画像情報には、従来の平面画像情報と、極めて簡単な例であるコンピュータプログラム言語などを 例とする各種ディジタル情報が入る。
半導体電流を、オン・オフして、成立する極めて簡単な例であるコンピュータプログラム言語などを 例とする各種ディジタル情報は、半導体電流を オン・オフする行為を 伴った前記ディジタル情報として、平面画像情報内に、入る。
"Planar image or plane image information"
The planar image information includes conventional planar image information and various digital information such as a computer program language which is a very simple example.
Various digital information, such as a computer program language, which is a very simple example that is established by turning on and off the semiconductor current, is the plane image information as the digital information accompanied by the action of turning on and off the semiconductor current. Enter.

何故ならば、半導体電流を、オン・オフする行為を 伴った前記ディジタル情報は、人が、視覚情報として、構築・創造していく行為の情報であり、カテゴリィとしては、視覚言語としての視覚情報、つまり、可視平面画像情報の1部として、半導体電流を、オン・オフする行為を 伴った可視平面画像情報と認識されるため、本平面画像情報のカテゴリィに、属するものである。 This is because the digital information accompanied by the action of turning on and off the semiconductor current is information of an action that a person constructs and creates as visual information, and as a category, visual information as a visual language. That is, as a part of the visible plane image information, the semiconductor current is recognized as visible plane image information accompanied by an action of turning on / off, and therefore belongs to the category of the present plane image information.

極めて簡単な例として、具体的に述べると、
「平面画像情報物、立体物、および、想い描いた画像情報から得られる平面画像情報」「ディジタル、もしくは/および、アナログデータ平面画像情報」「ディジタル、もしくは/および、アナログデータ情報」「コンピュータプログラム言語情報」「ディジタル、もしくは/および、アナログ情報」「人情報」「物情報」「動物、植物等の生物情報」「形状情報」「模様情報」「文字情報」「カメラ類撮影状況情報」「前記情報を除いた平面画像情報」「人が認識できる 私的・地域的・公知的 概念認識情報」「人が持つ私的・地域的・公知的連想推定情報」「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」「コンピュータプログラム言語情報の処理情報」「平面画像情報」「映像情報」「動画画像情報」
『「平面画像情報」から、私的・地域的・公知的に連想推定される、および、同概念認識される「視覚」「聴覚」「嗅覚」「味覚」、および、「触覚」の各情報』・
「視覚計測センサー類で観測される情報」・「触覚計測センサー類で観測される情報」・「嗅覚計測センサー類で観測される情報」・「味覚計測センサー類で観測される情報」・「聴覚計測センサー類で観測される情報」
As a very simple example,
"Plane image information obtained from plane image information object, three-dimensional object, and desired image information""Digital or / and analog data plane image information""Digital or / and analog data information""Computer program “Language information” “Digital or / and analog information” “Personal information” “Material information” “Biological information such as animals and plants” “Shape information” “Pattern information” “Text information” “Camera shooting status information” “ Plane image information excluding the above information, “personal, regional, and publicly known concept recognition information that can be recognized by humans”, “personal, regional, and publicly known association estimation information possessed by humans”, “control units, control devices, Processing information for any of control devices / control systems ”“ Processing information for computer program language information ”“ Plane image information ”“ Video information ”“ Movie image information ”
“Early, privately, regionally, and publicly associatively estimated from“ planar image information ”, and“ visual, ”“ auditory, ”“ olfactory, ”“ taste, ”and“ tactile ”information 』・
"Information Observed with Visual Sensors", "Information Observed with Tactile Sensors", "Information Observed with Olfactory Sensors", "Information Observed with Taste Sensors", "Hearing Information Observed with Measurement Sensors "

更に、『以上全ての時間軸(過去・現在・未来)上の「平面画像情報」』
『以上全ての平均値・偏差値上の「平面画像情報」』
『以上全ての内、1以上の 様々な組み合わせから生まれる情報 との比較で「変化」「繰り返し」「異変」「増加」「減少」「拡大」「縮小」「伸張」「圧縮」「同等」「一致」「近似」「類似」「同類」「関連」「差異」「交差」「重層」「近接」「接触」「遠接」「離反」「傾斜」「回転」「反転」「突き破り」「目前」「通過」「比例」「反比例」「高」「低」「大」「小」「上」「下」「右」「左」「北」「南」「西」「東」、および、「無関係」の各情報と、照合する情報処理用処理情報』
『「両形融合画像情報の処理」・「両組融合画像情報の処理」・「両形組融合画像情報の処理」・「両離輻輳融合画像情報の処理」・「画像情報の処理」・「視覚情報の処理」・「音情報の処理」・「聴覚情報の処理」・「嗅覚情報の処理」・「触覚情報の処理」・「味覚情報の処理」・「人が認識できる 私的・地域的・公知的 概念認識情報の処理」・「人が推定できる 私的・地域的・公知的 連想推定情報の処理」、および、「制御部類・制御装置類・制御機器類・制御システム類のいずれかの各情報別の処理」「コンピュータプログラム言語情報の処理」の内、「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる処理情報」』
“Flat image information” on all time axes (past, present, and future)
“Flat image information on all mean / deviation values”
“By comparison with information born from various combinations of one or more of all of the above,“ change ”“ repetition ”“ abnormality ”“ increase ”“ decrease ”“ expansion ”“ decompression ”“ expansion ”“ compression ”“ equivalent ”“ Match, Approximate, Similar, Similar, Related, Difference, Crossing, Multilayer, Proximity, Contact, Distant, Separation, Tilt, Rotation, Flip, Breakthrough, Immediate ”“ Pass ”“ Proportional ”“ Inverse proportion ”“ High ”“ Low ”“ Large ”“ Small ”“ Up ”“ Down ”“ Right ”“ Left ”“ North ”“ South ”“ West ”“ East ”, and“ Information processing information to be checked against each piece of irrelevant information ”
"" Processing of bilateral fusion image information "," Processing of both sets of fusion image information "," Processing of both forms of fusion image information "," Processing of both deconvergence fusion image information "," Processing of image information " “Processing of visual information”, “Processing of sound information”, “Processing of auditory information”, “Processing of olfactory information”, “Processing of tactile information”, “Processing of taste information”, “Personal recognition `` Processing of regional and publicly known concept recognition information '', `` Processing of personal, regional and publicly known association estimation information that can be estimated by humans '', and `` Control section / control device / control device / control system “Processing for each information” or “Processing for computer program language information” “Processing information consisting of one or more, various combinations of one or more of the above, or similar various superpositions”]

更に、『「情報演算」・「情報検索」・「情報受信」・「情報入力」・「情報記憶」・「情報記録」・「情報照合」・「情報制御」・「情報実行」・「情報加工」・「情報出力」・「情報再生」・「情報印刷」・「情報表示」、および、「情報送信」の内、「各いずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる処理情報」』
「従来の立体画像情報」「輝度画像情報」「飽和度画像情報」「明度画像情報」「色相画像情報」「像輪郭線画像情報」、「A5感空間を携える平面画像情報」、および、「その他の平面画像情報」において、前記全ての1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる平面画像情報を言う。
In addition, “Information calculation”, “Information search”, “Information reception”, “Information input”, “Information storage”, “Information recording”, “Information verification”, “Information control”, “Information execution”, “Information” "Processing", "Information output", "Information reproduction", "Information printing", "Information display", and "Information transmission", "Any one or more, various combinations of the same one or more, or the same Processing information consisting of various overlays "
“Conventional stereoscopic image information” “Luminance image information” “Saturation image information” “Brightness image information” “Hue image information” “Image outline image information”, “Plane image information carrying A5 sensation space”, and “ In “other planar image information”, it refers to planar image information including all the one or more, various combinations of the same one or more, or similar various overlays.

『空間、もしくは、空間情報』とは、
本空間は、限定され特定された空間を指し、地下の地核空間から、地上の宇宙空間以上までも 含めて、その対象ととする空間である。
With "space or space information"
This space refers to a limited and specified space, including the space from the underground nuclear space to the space beyond the ground.

また、ナノメートルよりも遥かに小さな1000京分の1メートルの空間から、大宇宙よりも大きな空間も含めて、その対象とする空間である。 In addition, from the space of 1 meter per thousand meters far smaller than nanometers to the space larger than the large universe, it is the target space.

本発明における5感覚情報を、保持・保留している全ての空間を、その対象空間とし、真空空間も、その範囲内に 含まれる。
つまり、空間が、直接的・間接的に保持・保留している「視覚」・「聴覚」・「嗅覚」・「味覚」、および、「触覚」の内、1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる空間情報を 言う。
All spaces holding and holding the five sensory information in the present invention are the target spaces, and the vacuum space is also included in the range.
In other words, one or more of the "sight", "auditory", "olfactory", "taste", and "tactile" that the space holds and holds directly or indirectly is one or more, and one or more of the same. Spatial information consisting of a combination or similar overlays.

『空間情報関連物』とは、
限定され特定された空間に存在する情報に、直接・間接に関係する関連したものを 総称して、言う。
With "spatial information-related thing"
Collectively refers to information that is directly or indirectly related to information that exists in a limited and specified space.

『5感覚情報、5感覚、もしくは、5感』とは、
人が持っている5感覚情報と、その5感覚限界点の両端線の延長線上に存在できる、人の能力を越えた5感覚情報をも 含む。
つまり、人以外の生物・物・気体・液体・固体、もしくは、空間の5感覚情報をも 含む。
"5 sense information, 5 senses, or 5 senses"
It includes the five sense information that a person has and the five sense information that can exist on the extension line of both ends of the five sense limit points and exceeds the ability of the person.
In other words, it includes five senses of living things other than humans, things, gases, liquids, solids, or spaces.

物・気体・液体・固体、もしくは、空間は、生物ではないため、5感覚情報を 備えてはいない。 Since objects, gases, liquids, solids, or spaces are not living things, they do not have 5 sensory information.

しかし、限定された特定の各 物・気体・液体・固体、もしくは、空間には、人の5感覚に呼応する固有の特性が、存在し、個々の差別化、限定化、特定化の認識が、その呼応を確認した人の5感覚により認識されることにより、人により、その特定存在が、認められることになる。 However, each limited specific object, gas, liquid, solid, or space has unique characteristics that respond to the five human senses, and individual differentiation, limitation, and recognition of specificity are recognized. The specific presence is recognized by the person by recognizing the five senses of the person who confirmed the response.

従って、人の5感覚に呼応する固有の特性が、人により 認識できれば、逆に、個々の物・気体・液体・固体、もしくは、空間を 人は、認識でき、人により、特定できることになる。 Therefore, if the unique characteristics corresponding to the five senses of a person can be recognized by the person, conversely, the person can recognize individual objects, gases, liquids, solids, or spaces, and can be specified by the person.

前記、人の5感覚に呼応する固有の特性は、人の5感覚限界点の両端線の延長線上までの いずれかに存在しているため、人の5感覚限界内に、翻訳し直すことで、人に認識され、人により、前記特定が、なされる。
つまり、前記人の5感覚に呼応する固有の特性は、人の5感覚限界内に還元され、そのいずれか一部以上に、属して、存在していることになる。
Since the unique characteristic corresponding to the five senses of humans exists anywhere on the extension line of both ends of the human five sense limit point, it can be re-translated within the human five sense limits. , Recognized by a person, and the identification is made by the person.
That is, the characteristic characteristic corresponding to the five senses of the person is reduced within the limit of the five senses of the person and belongs to any one or more of them.

従って、物・気体・液体・固体、もしくは、空間は、人や生物ではないが、人や生物が備えた 5感覚情報のいずれか1部以上を 間接的に、備えていることになる。
つまり、本発明における 5感覚情報、5感覚、もしくは、5感とは、
人・生物・物・気体・液体・固体、もしくは、空間が、直接的・間接的に備えている「視覚」「聴覚」「嗅覚」「味覚」、および、「触覚」の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる感覚情報、もしくは、感覚を 言う。
Therefore, the object, gas, liquid, solid, or space is not a person or a living thing, but indirectly contains any one or more of the five sensory information that the person or living thing has.
In other words, 5 sense information, 5 senses, or 5 senses in the present invention are:
One or more of “sight”, “auditory”, “olfactory”, “taste”, and “tactile” that humans, organisms, things, gases, liquids, solids, or spaces are directly or indirectly equipped with, Sensory information or sensation consisting of various combinations of one or more or one or more of the same.

『視覚、もしくは、視覚情報』とは、
極めて簡単な例として、具体的に述べると、
明度、飽和度、輝度、色相、輪郭線度、模様、色柄、形状、デザイン、重なり度、分布密度、極めて簡単な例である人口密度などを 例とする各種密度、混雑度、隙間度、渋滞度、移動度、動き度、可視光変化度、繁殖度、衰退度、集合度、離反度、分散度、屈折率度、反射率度、透過光度、可視光度、光波長の干渉度、極めて簡単な例である長短などを 例とする各種距離度、極めて簡単な例であるナノメートルなどを 例とする各種長さ度、面積度、左方向度、右方向度、前方向度、後方向度、斜め方向度、上方向度、下方向度、空間位置度、体積度、極めて簡単な例である半導体類特性・同例の金属類特性・同例のカメラ類、および、光センサーなどによる視覚計測センサー類で計測される情報、および、その他の視覚情報において、以上全ての内、1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる情報を 言う。
“Visual or visual information”
As a very simple example,
Lightness, saturation, brightness, hue, contour, pattern, color pattern, shape, design, overlap, distribution density, extremely simple examples of population density, etc. Traffic congestion, mobility, movement, visible light change, breeding, decline, assembly, separation, dispersion, refractive index, reflectance, transmitted light, visible light, light wavelength interference, extremely Various distance degrees such as long and short, which are simple examples, various length degrees such as nanometers which are very simple examples, area degrees, leftward degrees, rightward degrees, forward degrees, backward directions Degree, oblique direction, upward direction, downward direction, spatial position degree, volume degree, very simple examples of semiconductor characteristics, similar metal characteristics, similar camera, optical sensor, etc. For information measured by visual measurement sensors and other visual information Of Te, 1 or more, the one or more of a variety of combinations, or refers to information made of the same variety of superposition.

『聴覚、もしくは、聴覚情報』とは、
極めて簡単な例として、具体的に述べると、
無音、雑音、騒音、音楽、楽音、効果音、効果音楽、擬音、歓声、人の声、声楽、楽器音、記録音、収録音、赤外線度、紫外線度、無線用電波度、極めて簡単な例である電波時計などを 例とする各種電波度、極めて簡単な例である電波通信などを 例とする各種電波度、極めて簡単な例であるテレビジョン放送などを 例とする各種電波度、極めて簡単な例であるラジオ放送などを 例とする各種電波度、エックス線度、ガンマ線度、磁力線度、放射能度、電磁波内の各波長度、超音波度、ドップラー効果度、音波長の干渉度、極めて簡単な例である半導体類特性・同例の金属類特性・同例のマイクロホン類、および、同例の集音機類などによる聴覚計測センサー類で観測される情報、および、その他の聴覚情報において、以上全ての内、1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる情報を 言う。
"Hearing or hearing information"
As a very simple example,
Silence, noise, noise, music, music, sound effect, sound effect, imitation sound, cheer, human voice, voice music, instrument sound, recording sound, recorded sound, infrared intensity, ultraviolet degree, radio wave intensity, extremely simple example Various radio wave strengths such as radio wave watches, various radio wave strengths such as radio communication that is a very simple example, various radio wave strengths such as television broadcasting that is a very simple example, extremely simple For example, radio broadcasts such as radio broadcasts, various radio field strengths, X-ray radiation, gamma radiation, magnetic field radiation, radioactivity, each wavelength in electromagnetic waves, ultrasonic wave, Doppler effect, sound wave length interference, Simple examples of semiconductor characteristics, metal characteristics of the same example, microphones of the same example, information observed by auditory measurement sensors such as sound collectors of the same example, and other auditory information 1 or more of all This refers to information consisting of various combinations of one or more of the above, or similar overlapping.

『嗅覚、もしくは、嗅覚情報』とは、
極めて簡単な例として、具体的に述べると、
臭い、香り、異臭、悪臭、芳香、特定薬物の臭い、極めて簡単な例であるフェロモンなどを 例とする各種特定物質の臭い、極めて簡単な例であるガソリンなどを 例とする各種特定液体の臭い、極めて簡単な例である火災などを 例とする各種特定気体・同例の煙り類の臭い、極めて簡単な例である固形石鹸などを 例とする各種特定固体類の臭い、極めて簡単な例である犬などを 例とする各種生物類の嗅覚情報、極めて簡単な例である昆虫類などを 例とする各種触角情報、極めて簡単な例である半導体類特性や同例の金属類特性などによる嗅覚計測センサー類で観測される情報、および、その他の嗅覚情報において、以上全ての内、1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる情報を 言う。
“Smell or olfactory information”
As a very simple example,
Odor, fragrance, odor, malodor, fragrance, odor of specific drugs, odor of various specific substances such as pheromone which is a very simple example, odor of various specific liquids such as gasoline which is a very simple example The odor of various specific gases and smokes such as fire, which is a very simple example, and the smell of various specific solids such as solid soap, which is a very simple example. Olfactory information of various organisms such as a dog, various antennae information such as insects that are very simple examples, olfactory information based on semiconductor characteristics and metal characteristics of the same examples In the information observed by measurement sensors and other olfactory information, the information consists of various combinations of one or more, one or more of the same, or various similar superpositions.

『味覚、もしくは、味覚情報』とは、
極めて簡単な例として、具体的に述べると、
唇以下の口内と喉下までの粘膜類・軟組織類・皮膚類・舌類・歯茎類、および、歯類の刺激を指す。
“Taste or taste information”
As a very simple example,
It refers to irritation of the mucous membranes, soft tissues, skin, tongues, gums, and teeth below the mouth and below the lips.

つまり、味の5感覚(酸味・甘味・苦味・塩味、および、旨味)、辛味度、切れ味度、濃く味度、喉越し度、嗜好味度、嫌悪味度、糖度、酸味度、塩分度、塩っぱ味度、「極めて簡単な例である蕩け度・同例の繊維質度・同例のざらつき度・同例のぬめり度・同例の滑り度・同例のご輪付き度・同例の爽快度・同例の熱さ度、および、同例の炭酸などを 例とする各種刺激度などを 例とする各種 舌類と口内皮膚類触覚」、「極めて簡単な例である喉超し度・同例の喉張り付き度・同例の飲み込み度などを 例とする各種 喉類の触覚」、「極めて簡単な例である咀嚼頻度・同例の歯応え度・同例の噛み砕き度、および、同例の弾力度などを 例とする各種 歯類と歯茎類の触覚」、極めて簡単な例である人工脂質膜類特性や喉仏移動接触類特性・味覚時の血流・同血圧・同発汗量変化などによる味覚計測センサー類で観測される情報、および、その他の味覚情報において、以上全ての内、1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる情報を 言う。 In other words, five senses of taste (acidity, sweetness, bitterness, salty taste, and umami), pungentness, sharpness, deep taste, throatiness, preference, taste aversion, sugar, acidity, salinity, Salty taste, “It ’s a very simple example, bake degree, fiber degree, example roughness, degree of slimness, degree of slippage, degree of slip, degree of ringing, etc. Examples of exhilaration level, heat level of the same example, various irritation levels such as carbonic acid etc. `` Tactile sensation of various throats such as the degree of throat stickiness of the same example, the degree of swallowing of the same example '', `` a very simple example of chewing frequency, the same degree of tooth response, the same degree of chewing, and `` Tactile sensation of various teeth and gums, for example, elasticity of the same example '', artificial lipid membrane characteristics and throat-buddling movement contact characteristics / taste, which are extremely simple examples In the information observed by taste measurement sensors based on changes in blood flow, blood pressure, sweating, etc. at the time of sensation, and other taste information, among all the above, 1 or more, various combinations of 1 or more of the same, or Say information consisting of various similar overlays.

『触覚、もしくは、触覚情報』とは、
極めて簡単な例として、具体的に述べると、
接触度、接触感度、皮膚感覚度、ケロイド度、平衡感覚度、痛覚度、極めて簡単な例である冷却・同例の気化などを 例とする各種爽快度、極めて簡単な例であるアルカリ度・同例の酸度・同例のアルコール度、および、同例の糖度などを 例とする各種液体の感応度、極めて簡単な例である揮発性能などを 例とする各種気体の感応度、極めて簡単な例である神経系統・同例の筋肉運動などを 例とする各種刺激度、極めて簡単な例である神経系統などを 例とする各種鎮静度、圧覚度、圧迫度、極めて簡単な例である水圧などを 例とする各種圧力度、浸透圧度、含浸度、極めて簡単な例である弾力などを 例とする各種反発力度、極めて簡単な例である生体電流などを 例とする各種電流度、振動電流度、電圧度、極めて簡単な例である脳の表面筋電位類などを 例とする各種電位度、電荷度、電気量度、ワット(電気仕事率)度、電力度、
“Tactile or tactile information”
As a very simple example,
Contact degree, contact sensitivity, skin sensation degree, keloid degree, equilibrium sensation degree, pain sensation degree, cooling, which is a very simple example, various refreshing examples such as vaporization, etc., alkalinity, which is a very simple example, Sensitivity of various liquids such as acidity of the same example, alcoholicity of the same example, sugar content of the same example, etc., sensitivity of various gases such as volatilization performance which is a very simple example, extremely simple Various examples of stimulation such as the nervous system of the example, muscle movement of the same example, etc., various sedation levels such as the nervous system of the very simple example, pressure, pressure, and water pressure that is an extremely simple example Various pressure levels such as various pressure levels, osmotic pressure levels, impregnation levels, various resilience levels such as elasticity, which is a very simple example, various current levels, vibrations such as a bioelectric current, which is a very simple example Current level, voltage level, a very simple example of the surface of the brain Various potential degree of an example and potential compounds, charge level, electric amount of, Watts (electric work rate) of the power level,

更に、極めて簡単な例である電気抵抗などを 例とする各種抵抗力度、科学的抵抗性度、極めて簡単な例である電気漂白などを 例とする各種漂白力度、極めて簡単な例である電気分解などを 例とする各種分解力度、分離力度、極めて簡単な例である化学結合などを 例とする各種結合力度、極めて簡単な例である点火プラグなどを 例とする各種電気火花点火度、電気伝導率度、熱伝導率度、極めて簡単な例である延性度・同例の展性度などを 例とする各種固有物質の特性度、極めて簡単な例である気化・同例の発火点などを 例とする各種固有液体の特性度、極めて簡単な例である難燃性・同例の不燃性などを 例とする各種固有気体の特性度、電磁場力度、極めて簡単な例である電磁誘導などを 例とする各種誘導力度、極めて簡単な例である電気盆などを 例とする各種静電誘導力度、極めて簡単な例である電気分解などを 例とする各種析出接着度、極めて簡単な例である防錆度・同例の耐摩耗度・同例の耐火度、および、同例の耐候度などを 例とする各種耐久度、極めて簡単な例である防火・同例の防音・同例の防水、および、同例の防塵などを 例とする各種守防力度、電気容量度、電磁力度、 In addition, various resistance strengths such as electrical resistance, which is a very simple example, scientific resistance, various bleaching powers such as electrical bleaching, which is a very simple example, and electrolysis, which is a very simple example For example, various decomposition strengths, separation powers, various bonding strengths such as chemical bonds, which are very simple examples, various sparks, electric conduction, such as spark plugs, which are very simple examples, etc. Specificity of various intrinsic substances such as rate, thermal conductivity, ductility / extensibility in the same simple example, vaporization / ignition point in the same Examples of characteristics of various intrinsic liquids, characteristics of various intrinsic gases such as flame retardant and non-flammability of the same example, electromagnetic field strength, electromagnetic induction that is an extremely simple example, etc. Various inductive powers as examples, very simple examples Various electrostatic induction strengths such as air basins, etc., various deposition adhesions such as electrolysis, which is a very simple example, rust prevention degree, wear resistance level, etc. Various durability examples such as fire resistance, and weather resistance of the same example, fire protection, soundproofing of the same example, waterproofing of the same example, dust prevention of the same example, etc. Defense power, electrical capacity, electromagnetic power,

更に、極めて簡単な例である電場吸着沈殿などを 例とする各種吸着沈殿力度、極めて簡単な例である電気焼灼力などを 例とする各種焼灼力度、極めて簡単な例である電気推進力などを 例とする各種推進力度、極めて簡単な例である電気磁石力などを 例とする各種吸着力度、極めて簡単な例である電気制動などを 例とする各種制動力度、極めて簡単な例である電気版などを 例とする各種集積度、電気孵化法・極めて簡単な例である電気孵卵器などを 例とする各種孵化度、極めて簡単な例である電気分析などを 例とする各種適定度、極めて簡単な例である電気分析などを 例とする各種分解度、電束密度、極めて簡単な例である電気探鉱などを 例とする各種地中内電流方向度、極めて簡単な例である電気探鉱などを 例とする各種地中内電流度、極めて簡単な例である魚群探知機の超音波、もしくは、電磁波などを 例とする各種反射度、極めて簡単な例である聴覚情報などを 例とする各種反射度、極めて簡単な例である光波などを 例とする各種反射度や透過度、極めて簡単な例である嗅覚情報などを 例とする各種伝導率度、極めて簡単な例である摩擦熱などを 例とする各種摩擦力度、粘度、硬度、軟度、粘着力度、接着力度、 In addition, various adsorption and precipitation strengths such as electric field adsorption and precipitation, which are extremely simple examples, various ablation forces such as electrocautery and the like, which are extremely simple examples, and electric propulsion force that is a very simple example, etc. Various examples of propulsive force, various attractive forces such as electromagnet force, which is an extremely simple example, various braking forces such as electric braking, which is an extremely simple example, electroplate that is an extremely simple example For example, various integration degrees such as electric incubation methods, various incubation degrees such as electric incubators that are extremely simple examples, and various qualities such as electrical analysis that are extremely simple examples Various resolutions such as electrical analysis, which is a simple example, electric flux density, various directions of underground current, such as electric exploration, which is a very simple example, electric exploration, which is a very simple example, etc. For example, various underground currents Ultra-simple examples such as fish finder ultrasonic waves or various reflections such as electromagnetic waves, extremely simple examples such as auditory information, various reflections, and very simple examples of light waves For example, various reflectivities and transmissivities, for example, olfactory information, which is a very simple example, various conductivity degrees, for example, frictional heat, which is a very simple example, friction force, viscosity, hardness , Softness, adhesive strength, adhesive strength,

更に、極めて簡単な例である電気溶接などを 例とする各種密着力度、剥離力度、極めて簡単な例である断性度などを 例とする各種伸張力度、圧縮力度、極めて簡単な例である華氏度・同例の摂氏度・同例の零下度、および、同例の絶対温度などを 例とする各種温度、極めて簡単な例である気化熱・同例のジュール熱・同例のアーク放電発生熱、および、同例の高周波誘導電流発生熱などを 例とする各種温度、湿り度、湿度、極めて簡単な例であるミリバール度・同例のヘクトパスカル度などを 例とする各種気圧力度、乾燥度、極めて簡単な例である風力度などを 例とする各種風圧力度、極めて簡単な例である平衡感覚などを 例とする各種傾斜度、回転度、極めて簡単な例であるエンジンなどを 例とする各種回転数度、極めて簡単な例である往復運動などを 例とする各種回数度、極めて簡単な例である電気動力などを 例とする各種回転力度、極めて簡単な例である運転時の速度アップや同例のカーブなどを 例とする各種重力度、極めて簡単な例である体重などを 例とする各種重量度、極めて簡単な例であるナノメートル物質などを 例とする各種質量度、遠心力度、極めて簡単な例である落下などを 例とする各種衝撃度、極めて簡単な例であるスピードなどを 例とする各種速力度、浮力度、極めて簡単な例である衝突破壊などを 例とする各種破壊力度、極めて簡単な例である爆破などを 例とする各種粉砕力度、 Furthermore, various adhesion strengths and peel strengths, such as electric welding, which is a very simple example, and various stretching forces, compression strengths, such as fracture strength, which is a very simple example, Fahrenheit, which is a very simple example. Degrees of Celsius, Degree of Celsius, Degree of Zero Degree, and Absolute Temperature of the Example, Various Temperatures, Example of Evaporation Heat, Example of Joule Heat, Example of Arc Discharge Various temperatures, wetness, and humidity, such as heat and heat generated by the same high-frequency induced current, and various air pressure and dryness, such as millibar degrees and hectopascal degrees, which are very simple examples For example, various wind pressure levels, for example, wind pressure, which is a very simple example, various slopes, rotations, for example, a sense of balance, for example, an engine, which is a very simple example Various rotation speeds, very simple examples For example, the number of rotations such as reciprocating movements, various rotational powers such as electric power that is a very simple example, speed increase during operation and the curve of the same example. Various gravities, various weights such as body weight as a very simple example, various mass degrees such as nanometer materials as a very simple example, centrifugal force, dropping as a very simple example Various impact strengths such as speed, various speeds such as speed, which is a very simple example, buoyancy, various destructive powers such as collision destruction, which is a very simple example, explosion, which is a very simple example Various crushing strengths such as

更に、極めて簡単な例である電気振動などを 例とする各種振動力度、極めて簡単な例である電気時計などを 例とする各種時間単位経過度、極めて簡単な例であるマグニチュードなどを 例とする各種地震度、極めて簡単な例である海抜などを 例とする各種高度、極めて簡単な例である緯度・同例の経度・同例の磁石などを 例とする各種方位度、極めて簡単な例であるGPS(グローバルポジショニングシステム)などを 例とする各種空間位置度、極めて簡単な例である海底などを 例とする各種深水度、極めて簡単な例である生物・同例の物質・同例の固体・同例の気体、および、同例の液体などを 例とする各種付着度、極めて簡単な例である半導体類特性や同例の金属類特性、もしくは、同パラボラアンテナ類などによる触覚計測センサー類で計測される情報、極めて簡単な例であるジャイロスコープ類などを 例とする各種触覚計測センサー類で計測される情報、および、その他の触覚情報において、以上全ての内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報を 言う。 In addition, various vibration strengths such as an electric vibration that is a very simple example, various time unit degrees such as an electric clock that is an extremely simple example, and a magnitude that is a very simple example. Various earthquake degrees, various altitudes such as sea level, which is a very simple example, extremely simple examples such as latitude, the same longitude, various azimuths such as the same magnet, and very simple examples Various spatial position examples such as a GPS (Global Positioning System), various depths such as the seabed as a very simple example, organisms of the same example, solid substances of the same example, and solids of the same example・ Various tactile sensors such as various adhesion degrees, such as gas and liquid of the same example, semiconductor characteristics and metal characteristics of the same simple example, parabolic antennas, etc. Information measured by various sensors, information measured by various tactile sensors such as gyroscopes, which are extremely simple examples, and other tactile information. The information consists of the above-mentioned various combinations, or one or more various superpositions.

『A5感空間』とは、
時間軸上の他の空間と通信手段により、繋がっていない独立し、限定され、特定された空間情報を言う。また、人が認識できる5感覚情報に還元できる 本発明における5感覚情報の内、少なくともいずれか1つ以上を その特定空間情報内に情報として保持・保留している。
What is “A5 sense space”?
It refers to independent, limited, and specified spatial information that is not connected to another space on the time axis by communication means. Moreover, at least any one or more of the five sensory information in the present invention that can be reduced to five sensory information that can be recognized by a person is held and held as information in the specific space information.

また、時間軸上の他の「A5感空間」と 通信手段により 繋がることにより、当初の「A5感空間」領域が、広がった、新たな「A5感空間」となる。   In addition, by connecting to other “A5 sensation spaces” on the time axis through communication means, the original “A5 sensation space” area becomes a new “A5 sensation space”.

「A5感空間」は、
時間軸上の他の空間と 「通信手段A」を持ちいて、少なくとも繋がっていない時間軸上の最小独立した「A5感空間」を 1個単位として、
『前記「A5感空間」の1個単位以上』と
『前記「A5感空間」の1個単位以上とは、別の他の「A5感空間」の1個単位以上』の内、
1以上、同1以上の様々な組み合わせ、および、同1以上の様々な重ね合わせで、
「通信手段A」を持ちいて、時間軸上で、様々に、繋がった空間から、
その少なくとも1部以上、もしくは、全部が、構成されている。
"A5 sense space"
Having a “communication means A” with other space on the time axis, and at least not connected to the smallest independent “A5 sense space” on the time axis,
“One unit or more of the“ A5 sense space ”” and “One unit or more of the“ A5 sense space ”are one or more units of another“ A5 sense space ””,
1 or more, 1 or more of various combinations, and 1 or more of various combinations,
Having “communication means A”, from various connected spaces on the time axis,
At least one part or all of them are configured.

「A5感空間」内を 詳細すると、「B虚空領域」「C実空領域」「D領間処理部」、および、「通信手段A」の何れか1つ以上を内包している。
「B虚空領域」「C実空領域」「D領間処理部」、および、「通信手段A」の内、いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから 「A5感空間」の少なくとも1部以上、もしくは、多部分が、構成されている。
「B虚空領域」と「C実空領域」は、「各領域」同士が、少なくとも1部以上、もしくは、多部分で、重層している。
More specifically, “A5 sense space” includes at least one of “B imaginary space region”, “C real space region”, “D inter-area processing unit”, and “communication means A”.
Among “B imaginary space area”, “C real sky area”, “D inter-area processing unit”, and “communication means A”, any one or more, one or more various combinations, or one or more various From the superposition, at least one part or many parts of the “A5 feeling space” are configured.
The “B vacant space region” and the “C real sky region” are overlapped by “each region” in at least one part or multiple parts.

また、
『「D領間処理部」の全部は、「B虚空領域」「C実空領域」の「各領域」から、独立している』か、
または、
『「D領間処理部」の少なくとも1部以上、もしくは、全部が、「B虚空領域」「C実空領域」の何れかの「各領域」
(「B虚空領域」のI処理処理群、N進入処理群、S表示処理群、X進出処理群、
「C実空領域」内のY観察画群の「ディジタル、もしくは/および、アナログ処理
用処理情報群」、Z観測5感群の「ディジタル、もしくは/および、アナログ処理
用処理情報群」、「情報処理作動用実空領域内の処理部」および、その他の同領域内
「情報処理部」の内、
いずれか1以上と1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせか
らなる各領域)
内の、少なくとも1部以上 から全部までの間で、重層しているか』の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせである「A5感空間」である。
Also,
“All of the“ D inter-area processing unit ”is independent from“ areas ”of“ B vacant area ”and“ C actual area ”.
Or
“At least one part or all of the“ D inter-area processing section ”or“ all areas ”of either“ B vacant area ”or“ C actual area ”
(I processing group, “N approach processing group”, “S display processing group”, “X advancing processing group”
“Digital or / and analog processing information group” for Y observation image group in “C real sky region”, “Digital or / and analog processing information group” for Z observation group 5 sense, "Processing section in the real space area for information processing operation" and "Information processing section" in other same area,
Any one or more and various combinations of one or more, or each region consisting of various similar overlapping)
Of at least one part to all of them, ”
It is “A5 sensation space” that is any one or more, various combinations of the same one or more, or various superpositions of the same one or more.

『B虚空領域』とは、
「A5感空間」内の、時間軸上(過去時間・現在時間・未来時間)のディジタル、もしくは/および、アナログ情報から、構成されるディジタル、もしくは/および、アナログ空間情報領域 を含んでいる。
What is “B void area”?
It includes a digital or / and analog space information area composed of digital and / or analog information on the time axis (past time / current time / future time) within the “A5 sense space”.

また 「B虚空領域」は、
「同領域」内の 時間軸上のディジタル、もしくは/および、アナログ空間情報領域内部に、「B処理群」、「B進入群」、「B表示群」、および、「B進出群」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「B虚空領域」の1部以上、もしくは、全部が、構成されている。
The “B void area”
Within the “same area” digital or / and analog space information area within the “B process group”, “B approach group”, “B display group”, and “B advance group” ,
One or more or all of the “B imaginary region” is configured by any one or more, various combinations of the same one or more, or various superposition information of the one or more.

『B虚空領域』内の『B処理群』とは、
「B虚空領域」内の 「通信手段A」を 持ちいて、「同領域」内に、時間軸上で存在する情報群 が、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、交信し、情報処理し、もしくは/および、他の情報処理部と 交信されることになる。
"B processing group" in "B emptiness area"
Have "Communication means A" in "B vacant area", and there are at least one information group on the time axis in "Same area" and one or more places in "Same area" The information processing unit communicates, processes information, and / or communicates with other information processing units.

また 「B処理群」は、
「同群領域」内の 時間軸上のディジタル、もしくは/および、アナログ空間情報領域内部に、「E処理画群」「F処理5感群」「G処理認識群」「H処理推定群」、および、「I処理処理群」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「B処理群」の1部以上、もしくは、全部が、構成されている。
The “B treatment group”
In the digital or / and analog space information area in the “same group area”, “E process image group”, “F process 5 sense group”, “G process recognition group”, “H process estimation group”, And, among the “I processing group”,
One or more, one or more various combinations, or one or more various superposition information constitute one or more or all of the “B processing group”.

『E処理画群』とは、
「B虚空領域」内の 「通信手段A」を使用し、「同領域」内に、時間軸上で存在する情報群 が、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、交信し、情報処理し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上のディジタル、もしくは/および、アナログ平面画像情報群を 言う。
What is “E processing image group”?
Use “communication means A” in “B vacant area”, and at least one information group on the time axis in “same area” and one or more places in “same area” This is a digital or / and analog plane image information group on the time axis necessary for communication, information processing, and / or communication with other information processing units.

『F処理5感群』とは、
「B虚空領域」内の 「通信手段A」を使用し、「同領域」内に、時間軸上で存在する情報群 が、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、交信し、情報処理し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上のディジタル、もしくは/および、アナログ5感覚情報群(視覚情報・触覚情報・嗅覚情報・味覚情報・聴覚情報)を 言う。
"F treatment 5 sense group"
Use “communication means A” in “B vacant area”, and at least one information group on the time axis in “same area” and one or more places in “same area” Digital and / or analog 5 sensory information groups (visual information / tactile information on the time axis required for communication, information processing, and / or communication with other information processing units・ Origin information / taste information / auditory information).

『G処理認識群』とは、
「B虚空領域」内の 「通信手段A」を使用し、「同領域」内に、時間軸上で存在する情報群 が、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、交信し、情報処理し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の人が認識できる 私的・地域的・公知的 ディジタル、もしくは/および、アナログ概念認識情報群を 言う。
"G processing recognition group"
Use “communication means A” in “B vacant area”, and at least one information group on the time axis in “same area” and one or more places in “same area” In the information processing section of the private, regional, publicly known digital or / and can be recognized by people on the time axis necessary to communicate, process information and / or communicate with other information processing sections The analog concept recognition information group.

『H処理推定群』とは、
「B虚空領域」内の 「通信手段A」を使用し、「同領域」内に、時間軸上で存在する情報群 が、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、交信し、情報処理し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の人が推定できる 私的・地域的・公知的 ディジタル、もしくは/および、アナログ連想推定情報群を 言う。
What is the “H treatment estimation group”?
Use “communication means A” in “B vacant area”, and at least one information group on the time axis in “same area” and one or more places in “same area” In the information processing section of the private, regional, publicly known digital, and / or can estimate the person on the time axis necessary to communicate, process information and / or communicate with other information processing section The analog association estimation information group.

『I処理処理群』とは、
「B虚空領域」内の 「通信手段A」を使用し、「同領域」内に、時間軸上で存在する情報群 が、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 前記同情報処理部で、交信し、情報、処理情報を情報処理し、もしくは/および、他の情報処理部と 交信するために必要なディジタル、もしくは/および、アナログ処理用処理情報群
“I processing group”
Use “communication means A” in “B vacant area”, and at least one information group on the time axis in “same area” and one or more places in “same area” In the same information processing unit, processing information group for digital or / and analog processing necessary for communicating, processing information, processing information, and / or communicating with other information processing unit

『B虚空領域』内の『B進入群』とは、
「B虚空領域」内の、「当該B虚空領域」以外の 外のディジタル、もしくは/および、アナログ空間情報領域から 各々進入してくる情報を 含んでいる。
The “B approach group” in the “B void area”
In the “B emptiness area”, information other than “the B emptiness area” other than digital or / and analog space information areas is included.

従って、「B進入群」とは、
詳細すると
「B虚空領域」内の「通信手段A」と、「当該B虚空領域」以外の「通信手段A」が 繋がり、「同領域」内へ「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、同「実在空間情報領域」から、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、交信し、情報処理し、情報進入させ、もしくは/および、他の情報処理部と 交信されることになる。
Therefore, "B approach group"
Specifically, “communication means A” in “B emptiness area” and “communication means A” other than “the relevant B emptiness area” are connected, and “digital or At least one and / or one information processing unit within the same area from the “/ and analog spatial information area” or / and “real space information area” to communicate and process information In other words, information is entered and / or communication with other information processing units is performed.

またおよび、「B進入群」は、
「同群領域」内の 時間軸上のディジタル、もしくは/および、アナログ空間情報領域内部に、「J進入画群」「K進入5感群」「L進入認識群」「M進入推定群」、および、「N進入処理群」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「B処理群」の1部以上、もしくは、全部が、構成されている。
Also, the “B approach group”
“J approach image group”, “K approach 5 sense group”, “L approach recognition group”, “M approach estimation group” in the digital or / and analog space information area in the “same group region”, And, among the “N approach processing group”,
One or more, one or more various combinations, or one or more various superposition information constitute one or more or all of the “B processing group”.

『J進入画群』とは、
「B虚空領域」内の 「通信手段A」と、時間軸上の「当該B虚空領域」以外の「通信手段A」が 繋がり、「同領域」内へ 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、同「実在空間情報領域」から、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部へ進入し、交信し、情報処理し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の進入ディジタル、もしくは/および、アナログ平面画像情報群を 言う。
With "J approach picture group"
“Communication means A” in “B emptiness area” and “Communication means A” other than “the corresponding B emptiness area” on the time axis are connected to the same area. , Or / and analog space information area "or / and" real space information area ", enter at least one information processing section in the same area, and at least one information processing unit, and communicate This refers to a group of digital information on an incoming digital or / and analog plane on the time axis necessary for information processing and / or communication with other information processing units.

『K進入5感群』とは、
「B虚空領域」内の 「通信手段A」と、時間軸上の「当該B虚空領域」以外の「通信手段A」が 繋がり、「同領域」内へ 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、同「実在空間情報領域」から、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部へ進入し、交信し、情報処理し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の進入ディジタル、もしくは/および、アナログ5感覚情報群(視覚情報・触覚情報・嗅覚情報・味覚情報・聴覚情報)を 言う。
"K approach 5 sense group"
“Communication means A” in “B emptiness area” and “Communication means A” other than “the corresponding B emptiness area” on the time axis are connected to the same area. , Or / and analog space information area "or / and" real space information area ", enter at least one information processing section in the same area, and at least one information processing unit, and communicate , Digital information and / or analog 5 sensory information group (visual information, tactile information, olfactory information, taste information) necessary for information processing and / or communication with other information processing units • Say hearing information.

『L進入認識群』とは、
「B虚空領域」内の 「通信手段A」と、時間軸上の「当該B虚空領域」以外の「通信手段A」が 繋がり、「同領域」内へ 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、同「実在空間情報領域」から、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部へ進入し、交信し、情報処理し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の人が認識できる 私的・地域的・公知的 進入ディジタル、もしくは/および、アナログ概念認識情報群を 言う。
“L approach recognition group”
“Communication means A” in “B emptiness area” and “Communication means A” other than “the corresponding B emptiness area” on the time axis are connected to the same area. , Or / and analog space information area "or / and" real space information area ", enter at least one information processing section in the same area, and at least one information processing unit, and communicate Private, regional, and publicly accessible digital or / and analog concept recognition information group that can be recognized by people on the time axis necessary for information processing and / or communication with other information processing units Say.

『M進入推定群』とは、
「B虚空領域」内の 「通信手段A」と、時間軸上の「当該B虚空領域」以外の「通信手段A」が 繋がり、「同領域」内へ 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、同「実在空間情報領域」から、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部へ進入し、交信し、情報処理し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の人が推定できる 私的・地域的・公知的 進入ディジタル、もしくは/および、アナログ連想推定情報群を 言う。
“M approach estimation group”
“Communication means A” in “B emptiness area” and “Communication means A” other than “the corresponding B emptiness area” on the time axis are connected to the same area. , Or / and analog space information area "or / and" real space information area ", enter at least one information processing section in the same area, and at least one information processing unit, and communicate Private, regional, and publicly available approach digital and / or analog associative estimation information groups that can be estimated by people on the time axis necessary for information processing and / or communication with other information processing units Say.

『N進入処理群』とは、
「B虚空領域」内の 「通信手段A」と、時間軸上の「当該B虚空領域」以外の「通信手段A」が 繋がり、「同領域」内へ「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、同「実在空間情報領域」から、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部へ進入し、交信し、情報、処理情報を情報処理し、もしくは/および、他の情報処理部と 交信するために 必要なディジタル、もしくは/および、アナログ処理用処理情報群を 言う。
"N approach processing group"
“Communication means A” in “B emptiness area” and “Communication means A” other than “the corresponding B emptiness area” on the time axis are connected, and “digital” outside “same area” is connected to “same area”. , Or / and analog space information area "or / and" real space information area ", enter at least one information processing section in the same area, and at least one information processing unit, and communicate The processing information group for digital processing and / or analog processing necessary for processing information and processing information and / or communicating with other information processing units.

『B虚空領域』内の『B表示群』とは、
「A5感空間」内に構築され、特定される表示面類上に、時間軸上で、表示される、特定表示情報を 含んでいる。
The “B display group” in the “B void area”
It includes specific display information that is displayed on the time axis on the display planes that are constructed and specified in the “A5 sense space”.

詳細すると、
「A5感空間」内の 特定される表示面類上に、「通信手段A」を持ちいて、交信し、時間軸上で、表示させることになる「B虚空領域」内の少なくとも1つ以上、および、同1ヶ所以上の 情報処理部が、交信し、情報処理し、情報表示させ、もしくは/および、他の情報処理部と 交信することになる。
In detail,
At least one or more in the “B emptiness area” that will be displayed on the time axis, having “communication means A” on the specified display surface in “A5 sense space”, One or more information processing units communicate, process information, display information, and / or communicate with other information processing units.

『O表示画群』とは、
「B虚空領域」内の「通信手段A」で、「A5感空間」内の 時間軸上の特定された表示面類上に、「同領域」内の少なくとも1つ以上、および、同1ヶ所以上の 情報処理部により、交信し、情報処理し、情報表示され、もしくは/および、他の情報処理部と 交信するために必要な 時間軸上の 特定表示ディジタル、もしくは/および、アナログ平面画像情報群を 言う。
What is “O display image group”?
In “Communication means A” in “B imaginary space”, at least one and the same location in “same area” on the specified display surface on the time axis in “A5 sensation space” Communication, information processing, information display, and / or specific display digital or / and analog plane image information on the time axis necessary for communication with other information processing units by the above information processing unit Say the group.

『P表示5感群』とは、
「B虚空領域」内の「通信手段A」で、「A5感空間」内の 時間軸上の特定された表示面類上に、「同領域」内の少なくとも1つ以上、および、同1ヶ所以上の 情報処理部により、交信し、情報処理し、情報表示され、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の 特定表示ディジタル、もしくは/および、アナログ5感覚情報群(視覚情報・触覚情報・嗅覚情報・味覚情報・聴覚情報)を 言う。
"P display 5 sense groups"
In “Communication means A” in “B imaginary space”, at least one and the same location in “same area” on the specified display surface on the time axis in “A5 sensation space” The above information processing unit communicates, processes information, displays information, and / or the specific display digital or / and analog 5 sensory information on the time axis necessary to communicate with other information processing units A group (visual information, tactile information, olfactory information, taste information, auditory information).

『Q表示認識群』とは、
「B虚空領域」内の「通信手段A」で、「A5感空間」内の 時間軸上の特定された表示面類上に、「同領域」内の少なくとも1つ以上、および、同1ヶ所以上の 情報処理部により、交信し、情報処理し、情報表示され、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の 人が認識できる 私的・地域的・公知的 特定表示ディジタル、もしくは/および、アナログ概念認識情報群を 言う。
“Q display recognition group”
In “Communication means A” in “B imaginary space”, at least one and the same location in “same area” on the specified display surface on the time axis in “A5 sensation space” The above information processing unit can communicate, process information, display information, and / or recognize people on the time axis necessary to communicate with other information processing units. It refers to a specific display digital and / or analog concept recognition information group.

『R表示推定群』とは、
「B虚空領域」内の「通信手段A」で、「A5感空間」内の 時間軸上の特定された表示面類上に、「同領域」内の少なくとも1つ以上、および、同1ヶ所以上の 情報処理部により、交信し、情報処理し、情報表示され、もしくは/および、他の情報処理部と 交信するために必要な 時間軸上の 人が推定できる 私的・地域的・公知的 特定表示ディジタル、もしくは/および、アナログ連想推定情報群を 言う。
“R display estimation group”
In “Communication means A” in “B imaginary space”, at least one and the same location in “same area” on the specified display surface on the time axis in “A5 sensation space” The above information processing units can communicate, process information, display information, and / or estimate people on the time axis necessary to communicate with other information processing units. A specific display digital and / or analog association estimation information group.

『S表示処理群』とは、
「B虚空領域」内の「通信手段A」で、「A5感空間」内の 時間軸上の特定された表示面類上に、「同領域」内の少なくとも1つ以上、および、同1ヶ所以上の 前記同情報処理部で、交信し、情報、処理情報を情報処理し、情報表示させ、もしくは/および、他の情報処理部と 交信するために必要な特定表示ディジタル、もしくは/および、アナログ処理用処理情報群
"S display processing group"
In “Communication means A” in “B imaginary space”, at least one and the same location in “same area” on the specified display surface on the time axis in “A5 sensation space” In the above information processing section, the specific display digital or / and analog necessary for communication, information processing, information processing, information display, and / or communication with other information processing sections. Processing information group for processing

『B虚空領域』内の『B進出群』とは、
「B虚空領域」内の ディジタル、もしくは/および、アナログ空間情報領域内から「当該B虚空領域」外へ進出して行く情報を 含んでいる。
従って、「B進出群」とは、
What is the “B advancement group” in the “B void area”?
It contains information that advances from the digital or / and analog space information area within the “B vacant area” to the outside of the “B vacant area”.
Therefore, "B advance group"

詳細すると
「B虚空領域」内と、時間軸上の「当該B虚空領域」外の 各「通信手段A」が繋がり、「同領域」内から
「同領域」以外の
『外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、外部の「実在空間領域」』へ、
「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部と、交信され、情報処理し、情報進出し、もしくは/および、他の情報処理部と 交信されることになる。
In detail, each “communication means A” in “B emptiness area” and “outside B emptiness area” on the time axis is connected.
To “external“ digital or / and analog space information area ”or / and external“ real space area ”other than“ same area ”
Communication with at least one information processing unit in the same area and one or more information processing units, information processing, information advancement, and / or communication with other information processing units .

『T進出画群』とは、
「B虚空領域」内と、時間軸上の「同領域」外の 各「通信手段A」が繋がり、「同領域」内から 「同領域」外部のディジタル、もしくは/および、アナログ空間情報領域へ 、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、情報処理し、交信し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の進出ディジタル、もしくは/および、アナログ平面画像情報群を 言う。
What is “T Advancement Image Group”?
Each “communication means A” outside “the same area” on the time axis is connected within the “B emptiness area”, and from within the “same area” to the digital or / and analog space information area outside the “same area” , On the time axis necessary for information processing, communication, and / or communication with other information processing units in at least one or more information processing units in the same area Refers to the group of digital or / and analog plane image information.

『U進出5感群』とは、
「B虚空領域」内と、時間軸上の「当該B虚空領域」外の 各「通信手段A」が繋がり、「同領域」内から 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または、/および、同「実在空間領域」へ、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、情報処理し、交信し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の進出ディジタル、もしくは/および、アナログ5感覚情報群(視覚情報・触覚情報・嗅覚情報・味覚情報・聴覚情報)を 言う。
With "U advance 5 sense group"
Each "communication means A" in the "B emptiness area" and outside of the "B emptiness area" on the time axis is connected, and from outside the "same area" outside the "same area""digital or / and Analog space information area "or / and" real space area "at least one or more information processing units in the same area, and information processing and communication / And the advance digital on the time axis necessary to communicate with other information processing units, or / and analog 5 sensory information group (visual information, tactile information, olfactory information, taste information, auditory information).

『V進出認識群』とは、
「B虚空領域」内と、時間軸上の「当該B虚空領域」外の 各「通信手段A」が繋がり、「同領域」内から 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または、/および、同「実在空間領域」へ、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、情報処理し、交信し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の人が認識できる 私的・地域的・公知的 進出ディジタル、もしくは/および、アナログ概念認識情報群
を 言う。
“V advancement recognition group”
Each "communication means A" in the "B emptiness area" and outside of the "B emptiness area" on the time axis is connected, and from outside the "same area" outside the "same area""digital or / and Analog space information area "or / and" real space area "at least one or more information processing units in the same area, and information processing and communication / And private / regional / publicly known digital or / and analog concept recognition information group that can be recognized by people on the time axis required to communicate with other information processing units.

『W進出推定群』とは、
「B虚空領域」内と、時間軸上の「当該B虚空領域」外の 各「通信手段A」が繋がり、「同領域」内から 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または、/および、同「実在空間領域」へ、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、情報処理し、交信し、もしくは/および、他の情報処理部と 交信するために 必要な 時間軸上の人が推定できる 私的・地域的・公知的 進出ディジタル、もしくは/および、アナログ連想推定情報群を 言う。
What is the “W advancement group”?
Each "communication means A" in the "B emptiness area" and outside of the "B emptiness area" on the time axis is connected, and from outside the "same area" outside the "same area""digital or / and Analog space information area "or / and" real space area "at least one or more information processing units in the same area, and information processing and communication / And private / regional / publicly known digital information that can be estimated by people on the time axis necessary to communicate with other information processing units, and / or analog associative estimation information group.

『X進出処理群』とは、
「B虚空領域」内と、時間軸上の「当該B虚空領域」外の 各「通信手段A」が繋がり、「同領域」内から 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または、/および、同「実在空間領域」へ、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 前記同情報処理部で、交信し、情報、処理情報を情報処理し、情報進出させ、もしくは/および、他の情報処理部と 交信するために必要なディジタル、もしくは/および、アナログ処理用処理情報群
The “X advance processing group”
Each "communication means A" in the "B emptiness area" and outside of the "B emptiness area" on the time axis is connected, and from outside the "same area" outside the "same area""digital or / and At least one or more of the “analog space information area” or / and the “real space area”, and at least one of the same information processing units in the same area, communicate, and process information Processing information group for digital and / or analog processing required to process information, advance information, and / or communicate with other information processing units

『C実空領域』とは、
「C実空領域」内の 時間軸上の実際に存在する空間情報内部に、
「Y観察画群」、「Z観測5感群」、および、「処理情報作動用実在空間情報群」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情
報で、「C実空領域」の1部以上、もしくは、全部が、構成されている。
“C real sky region”
In the spatial information that actually exists on the time axis in the “C real sky region”,
Among the “Y observation image group”, “Z observation five sense group”, and “real space information group for processing information operation”,
One or more of the “C real sky region” or all of them are configured by any one or more, various combinations of the same one or more, or various overlapping information of the same one or more.

『Y観察画群』とは、
「C実空領域」内の 時間軸上に、実際に存在する空間情報領域内部を、
極めて簡単な例である空間観察用撮影カメラ類で、撮影し、観察することにより得られる平面画像情報を 含んでいる。従って、「Y 観察画群」とは、
What is “Y observation image group”?
On the time axis in the “C real sky area”, the space information area that actually exists
It includes plane image information obtained by photographing and observing with a photographing camera for space observation, which is a very simple example. Therefore, "Y observation image group"

詳細すると
「C実空領域」内の 時間軸上の特定される実際に存在する空間情報内部において、
前記カメラ類で、撮影し、観察することにより得られる平面画像情報を「通信手段A」を 持ちいて、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部と、交信し、情報処理され、もしくは/および、他の情報処理部と 交信することを含む
Specifically, within the spatial information that actually exists that is specified on the time axis in the “C real sky region”,
Plane image information obtained by photographing and observing with the cameras, having “communication means A”, at least one in the same region, and one or more information processing units, Includes communication, information processing, and / or communication with other information processing units

または、前記交信のために 必要な 時間軸上の各
カメラ類で 観察された実在空間情報が、保持している平面画像情報群・
同カメラ類で 観察する実在空間情報が、保持している平面画像情報群・
同カメラ類で 観察している実在空間情報が、保持している平面画像情報群・
同カメラ類で 観察すべき実在空間情報が、保持している平面画像情報群・
同カメラ類で 観察予定の実在空間情報が、保持している平面画像情報群、および、
同カメラ類の 観察で得られる実在空間情報と交信し 情報処理し、その後、もしくは、再交信するために必要なディジタル、もしくは/および、アナログ処理用処理情報群
の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせ情報を 含み、以上の各平面画像情報をを総称して言う。
Or, the real space information observed by each camera on the time axis necessary for the communication is the plane image information group
The real space information observed by the cameras is the plane image information group
The real space information observed with the cameras is the plane image information group
The real space information to be observed by the cameras is the plane image information group
The real space information to be observed with the same camera is the plane image information group that is held, and
It communicates with real space information obtained by observation of the same camera, processes information, and then, or digital / analog processing information group necessary for re-communication,
Any one or more, the same one or more various combinations, or the same various overlay information, and the above-mentioned each plane image information is collectively referred to.

『Z観測5感群』とは、
「C実空領域」が、前記観察される時間軸上の実際に存在する空間情報内部に、
前記「Y観察画群」以外の5感覚情報を 同時に保持しているため、5感覚計測センサー類
により 計測され、観測獲得され、照合認識などの 情報処理が行われる5感覚情報を 含んでいる。従って、「Z観測5感群」とは、
Z observation 5 sense groups”
“C real sky region” is inside the spatial information that actually exists on the observed time axis,
Since five sensory information other than the “Y observation image group” is simultaneously held, it includes five sensory information measured by five sensor measurement sensors, acquired by observation, and subjected to information processing such as collation recognition. Therefore, "Z observation 5 sense groups"

詳細すると
「C実空領域」内の 時間軸上の特定される実際に存在する空間情報内部において、
5感覚計測センサー類により 計測し、観測獲得する5感覚情報を
「通信手段A」を 持ちいて、
「同領域群」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部と、交信し、情報処理され、もしくは/および、他の情報処理部と交信することを 含む。
Specifically, within the spatial information that actually exists that is specified on the time axis in the “C real sky region”,
5 sensory information to be measured and acquired by 5 sensor measurement sensors
Have "Communication means A"
This includes communicating with and processing information with at least one information processing unit within the “same area group” and with one or more information processing units, and / or communicating with other information processing units.

または、前記交信のために 必要な 時間軸上の各
前記計測センサー類で 観測された実在空間情報が、保持している5感覚情報群・
同計測センサー類で 観測する実在空間情報が、保持している5感覚情報群・
同計測センサー類で 観測している実在空間情報が、保持している5感覚情報群・
同計測センサー類で 観測すべき実在空間情報が、保持している5感覚情報群・
同計測センサー類で 観測予定の実在空間情報が、保持している5感覚情報群、 および、
同計測センサー類の 観測で得られる実在空間情報を 交信し、情報処理し、その後、もしくは、再交信するために必要なディジタル、もしくは/および、アナログ処理用処理情報群、の内、いずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせ情報を 含み、以上の各5感覚情報を 総称して言う。
Or, the real space information observed by each of the measurement sensors on the time axis required for the communication is the five sensory information groups
The real space information observed by the measurement sensors is the five sensory information groups
The real space information observed by the measurement sensors is the five sensory information groups
Real sensor information that should be observed by the sensor
The real space information that is planned to be observed by the same sensors is the five sensory information groups that are held, and
Any one of digital and / or analog processing information groups necessary for communicating, processing information, and then re-communication real space information obtained by observation of the measurement sensors. As mentioned above, each of the above five sensory information is collectively referred to as including one or more various combinations or the same various overlay information.

『C実空領域』内の『処理情報作動用実在空間情報群』とは、
「C実空領域」内の 時間軸上の実際に存在する空間情報内部に、
前記観察の「Y観察画群」、前記観測の「Z観測5感群」以外に、制御情報などの処理情報が、実在空間情報内部で、稼動、もしくは、作動するために必要な
処理情報作動用の実在空間情報を 含んだものである。
"Real space information group for processing information operation" in "C real sky area"
In the spatial information that actually exists on the time axis in the “C real sky region”,
In addition to the “Y observation image group” of the observation and the “Z observation 5 sense group” of the observation, the processing information such as control information is operated within the real space information, or the processing information necessary to operate is operated. It contains real space information for

『D領間処理部』とは、
「A5感空間」内の時間軸上に、少なくとも1つ以上、および、同1ヶ所以上で構築される 領域間情報処理情報部 を含み、「A5感空間」内の「通信手段A」を 持ちいて、
「B虚空領域」、「C実空領域」、もしくは/および、「他のD領間処理部」間を、交
信し、情報処理し、または/および、再交信する。
また、前記「D領間処理部」は、
前記「通信手段A」を 持ちいて、
当該「A5感空間」と当該空間以外の「外の時間軸上の他の空間情報領域」間を、
交信し、情報処理し、または/および、再交信するか、
または、前記行為(「外の他の空間情報領域」との交信)を、全く行わない
のいずれかの形態で、
構築されている。
What is “D Inter-Processor”?
On the time axis in “A5 Sensitive Space”, it contains at least one information processing section between regions constructed at one or more locations, and has “Communication Means A” in “A5 Sensitive Space” And
Communicate, process information, and / or re-communication between “B vacant area”, “C real area”, and / or “other D inter-area processing units”.
In addition, the “D inter-region processing unit”
Having the “communication means A”,
Between the “A5 sense space” and “other spatial information areas on the outside time axis” other than the space,
Communicate, process information and / or re-communicate,
Alternatively, in any form of not performing the above-mentioned action (communication with “other spatial information areas” outside)
Has been built.

『通信手段A』」とは、
ディジタル、もしくは/および、アナログ通信による 時間軸上の 接触通信類、非接触通信類、有線通信類、無線通信類、および、ネットワーク通信類の いずれか1以上、 同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせで構築される通信手段を 言う。
"Communication means A"
One or more of contact communication, non-contact communication, wired communication, wireless communication, and network communication on the time axis by digital or / and analog communication, various combinations of one or more, or This means communication means constructed by various similar overlays.

『交信』とは、
本発明による交信とは、「単方向通信による送信」「単方向通信による受信」「双方向通信による送信」「双方向通信による受信」、および、「双方向通信による送受信」の内、いずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせによる通信を 意味し、接触通信類、非接触通信類、有線通信類、無線通信類、および、ネットワーク通信類のいずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせで、交信する通信手段を 指す。
“Communication”
The communication according to the present invention is any one of “transmission by unidirectional communication”, “reception by unidirectional communication”, “transmission by bidirectional communication”, “reception by bidirectional communication”, and “transmission / reception by bidirectional communication”. It means communication by one or more, various combinations of one or more of the same, or similar overlapping, and any of contact communication, non-contact communication, wired communication, wireless communication, and network communication Communication means that communicates in one or more, various combinations of one or more of the same, or various similar overlays.

従って、極めて簡単な例である放送類、同例の観測点類 などを 例とする各種単方向の通信と 同例の電話通信類、同例のインターネット類通信などを 例とする各種双方向の通信を含んでいる。また、受信は、特定空間領域の単方向の通信で、受け、送信は、同領域内の 別の送信用単方向の通信、もしくは、別の双方向の通信で、交信することや、この逆の例も その概念の中の極めて簡単な1例として、各々含まれる。  Therefore, various unidirectional communications such as broadcasts and observation points of the same example are very simple examples, and various bidirectional communications such as the telephone communications and Internet communications of the same example are taken as examples. Includes communications. In addition, reception is performed by unidirectional communication in a specific space area, and reception and transmission are performed by communication in another unidirectional communication for transmission in the same area, or in other bidirectional communication, and vice versa. Are also included as very simple examples of the concept.

『A動画群』とは、
平面画像情報から構成される特定動画画像情報群を 言う。時間軸上で、同一概念認識体として捕えられ、同認識でき、同表現され、同表示可能な、各連続した特定動画画像情報群から、少なくとも1部以上、もしくは、全部が、構成されいる。
What is “A movie group”?
A specific moving image information group composed of plane image information. On the time axis, at least one or all or all of the continuous specific moving image information groups that are captured as the same concept recognizer, can be recognized, expressed, and displayed are configured.

また、「A動画群」は、「B動画群」「B動画不足群」、および、「その他の動画画情報群」の内 いずれか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせから、少なくともその1部以上、もしくは、全部が、構成されている。   In addition, “A movie group” is one or more of “B movie group”, “B movie shortage group”, and “other movie image information group”, various combinations of the same one or more, or similar At least one or more or all of them are composed of various overlays.

また、「A動画群」には、「B動画群」と「B動画不足群」の いずれにも属さない極めて簡単な例である帽子・同例の衣類などを 例とする各種後重ね用などを 例とする各種「他の動画画情報群」も、存在している場合がある。   In addition, the “A movie group” includes various hats such as hats and clothing of the same example that do not belong to either the “B movie group” or the “B movie shortage group”. Various “other video image information groups” may also exist, for example.

また、「A動画群」は、「A5感空間」内に含まれ、および、「B虚空領域」と「C実空領域」の1つ以上と、少なくとも1部以上、もしくは、全部が 重層している。
また、「A動画群」内は、
「B動画群」「B動画不足群」、もしくは、「その他の動画画像群」の内 いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから、少なくともその1部以上、もしくは、全部が、構成されている。
In addition, the “A movie group” is included in the “A5 sense space”, and at least one or all of one or more of “B imaginary area” and “C real sky area” are overlaid. ing.
Also, within the “A movie group”
From at least one of “B movie group”, “B movie shortage group”, or “other movie image group”, at least one of the above combinations, or at least one of the above combinations. One or more or all of them are configured.

『B動画群』とは、
「A動画群」内の 時間軸上の極めて簡単な例としての映像情報・同例の撮影画像情報などを 例とする各種 特定動画画像情報群と 同例の写真画像情報・同例の絵画画像情報などを 例とする各種 特定平面画像情報群を含み、この両特定画像情報群を 言う。
What is “B Movie Group”?
Various types of specific video image information group and photographic image information / illustration picture image of the same example, such as video information as the very simple example on the time axis in “A movie group” It includes various specific plane image information groups such as information, and both specific image information groups.

また、前記「B動画群」の少なくとも1部以上には、
前記「B動画群」が、備えている画像情報に、対応した、極めて簡単な例である音声などの音情報群(以下、「B対応音群」と 呼称する)を 含んでいるか、全く含んでいないかの何れかで構成されている。
従って「B動画群」内は、
特定動画画像情報群と、特定平面画像情報群のいずれか1つ以上の様々な組み合わせで、少なくともその1部以上、もしくは、全部が、構成されている、および、「B動画群」の少なくとも1部以上には、前記「B対応音群」を 含んでいるか、もしくは、全く含んでいないかの何れかで構成されている。
In addition, at least one part of the “B animation group” includes
The “B moving image group” includes a sound information group (hereinafter referred to as “B-compatible sound group”) corresponding to the image information provided, which is a very simple example, or is not included at all. It is comprised by either of them.
Therefore, the “B animation group”
At least one part or all of the specific moving image information group and the specific plane image information group and various combinations of at least one of the specific moving image information group and at least one of the “B moving image group” The above-described part is configured to include the “B-compatible sound group” or not at all.

『B動画不足群』とは、
「A動画群」には、必要とする動画画像情報が、存在し、「B動画群」では、不足する場合、「B動画群」を基礎として様々なコンピュータ画像処理技術類により、計算により導きだす不足動画画像情報群を 生み出し、これで、不足部分を補完すことができる。この補完される不足部分である 不足動画画像情報群を 言う。
「B動画群」を基礎として、極めて簡単な例であるコンピュータグラフィク技術・モーションキャプチャーなどを 例とする各種様々なコンピュータ画像処理技術類により、生み出された「B動画群」の不足動画画像情報群を 言う。
What is “B video shortage group”?
When “A movie group” contains necessary movie image information and “B movie group” is insufficient, it is derived by calculation using various computer image processing technologies based on “B movie group”. A deficient video image information group is created, which can be used to supplement the deficient part. This is the missing video image information group that is the lacking part to be supplemented.
Insufficient video image information group of “B video group” created by various computer image processing technologies such as computer graphics technology and motion capture which are very simple examples based on “B video group” Say.

また、同様に、前記「B動画不足群」の少なくとも1部以上には、
前記「B動画不足群」が、備えている画像情報に 対応した、極めて簡単な例である音声などの音情報(以下、「B対応音不足群」と 呼称する)を 含んでいるか、全く含んでいないかの何れかで構成されている。
従って、「B動画不足群」内は、
「不足する特定動画画像情報群」と「不足する特定平面画像情報群」のいずれか1つ以上の様々な組み合わせで、少なくともその1部以上、もしくは、全部が、構成されている、および、「B動画不足群」の少なくとも1部以上には、前記「B対応音不足群」を 含んでいるか、もしくは、全く含んでいないかの何れかで構成されている。
Similarly, at least one part of the “B video shortage group” includes
The “B moving picture deficient group” includes sound information such as voice (hereinafter referred to as “B corresponding sound deficient group”), which is a very simple example corresponding to the provided image information, or not at all. It is comprised by either of them.
Therefore, the “B movie shortage group”
At least one or more or all of one or more various combinations of “insufficient specific moving image information group” and “insufficient specific plane image information group” are configured, and “ At least one copy of the “B moving image deficient group” includes either the “B-compatible sound deficient group” or not at all.

『 空間認識差異情報 』とは、
平面画像情報から 立体深度のある立体画像情報を得るために、平面画像情報から 作り出される 「空間深度画像情報」「空間突出度画像情報」「空間歪性度画像情報」を、人の視中枢に認識させるための潜在的差異画像情報である。該差異画像情報が、認識されると 視中枢内で、左右視差創造と立体配置が、自動的に 行われ、「空間深度画像情報」「空間突出度画像情報」「空間歪性度画像情報」のある立体空間画像情報を得られる。
"Spatial recognition difference information"
In order to obtain stereoscopic image information with a stereoscopic depth from the planar image information, the “spatial depth image information”, “spatial protrusion image information”, and “spatial distortion image information” created from the planar image information are stored in the human visual center. This is potential difference image information for recognition. When the difference image information is recognized, right-and-left parallax creation and three-dimensional arrangement are automatically performed in the visual center, and “spatial depth image information” “spatial protrusion image information” “spatial distortion image information” 3D space image information can be obtained.

従って、視差画像情報を、人為的に、造り出す作業が、不要となる。空間認識差異情報では、平面画像情報に、平面画像情報全体が、「空間を持っている」信号のみを造り出す作業のみで事足り、個々の画像情報配置等の視差作成作業は、必要ない。 Therefore, it is unnecessary to manually create the parallax image information. In the spatial recognition difference information, it is only necessary to create only a signal that the entire planar image information has “space” in the planar image information, and a parallax creation operation such as individual image information arrangement is not necessary.

また、脳内視中枢による視差作成作業のため、左右眼球別区別も 不要となる。従来の視差画像情報では、必ず、左右眼球別画像情報の区別が、必要でなければ、成立しない点でも、大きく異なる。視差とは、「左右眼球から見た差」を指している。 Also, because of the parallax creation work by the brain endoscopic center, it is not necessary to distinguish between the left and right eyeballs. In the conventional parallax image information, the difference between the left and right eyeball image information is also greatly different in that it is not established unless necessary. Parallax refers to “difference seen from left and right eyeballs”.

つまり、眼球中心原理か、脳中心原理か という根本原理が、異なる訳である。
公開特許公報特開平8ー101469「平面画像情報を立体画像情報昇華する処理関連物および該製造方法」補正書に「空間深度画像情報」認識の詳細が、記載されている。
In other words, the fundamental principle of eye-centered principle or brain-centered principle is different.
Details of the recognition of “spatial depth image information” are described in the published Japanese Patent Application Laid-Open No. Hei 8-101469 “Processing Related Items for Sublimating Planar Image Information and its Manufacturing Method”.

同発明の文献P26・27の手続補正書によると「該積層体では、前記2つの画像情報5・6を2重写しの1画像情報として捕えることができない為、1つの基本画像情報が2つの情報を発信していることとして捕えることになる、つまり、横長の画像情報6と横に圧縮された画像情報5の2つの画像情報である。ここで、画像情報5に注視すると画像情報6は注視点以外の左右にずれた情報として捕えられ、画像情報6に注視すると画像情報5は注視点以外の左右にずれた情報として捕えられることになり、画像情報全体としては、両眼視差に似た立体視の効果を生むことになる。・・・中略・・・結果、該積層体では、基本画像情報全体が立体深度10を備えた空間画像情報として捕えられ視中枢4へ送られることになる。・・・中略・・・該空間画像情報を助けとして個々の画像情報と該隣接画像情報の伸縮(主に横方向が顕著である)作用が働き(該空間画像情報が無い場合は単なる平面画像情報錯覚画像情報として処理されると思われる。)自然界と一致した個々の空間画像情報配置に微調整され、又、画像情報全体も矛盾の無い中間の大きさに変えられることにより該空間画像情報が中間大の立体空間画像情報として再形成され視中枢内で立体視できることになると思われる。 According to the procedural amendment document of the document P26 / 27 of the same invention, “the laminated body cannot capture the two pieces of image information 5 and 6 as one piece of image information of a double copy. That is, it is captured as transmitting two pieces of information, that is, two pieces of image information, that is, the horizontally long image information 6 and the horizontally compressed image information 5. When the image information 5 is observed here, the image information 6 Is captured as left and right information other than the gazing point, and when the image information 6 is gazed, the image information 5 is captured as left and right information other than the gazing point. This produces a similar stereoscopic effect .... Omitted ... As a result, in this laminate, the entire basic image information is captured as spatial image information having a stereoscopic depth of 10 and sent to the visual center 4. Omitted ... -The expansion and contraction (mainly the lateral direction is noticeable) of individual image information and the adjacent image information works with the help of the spatial image information (if there is no spatial image information, it is processed as simple planar image information illusion image information) The spatial image information is finely adjusted to an individual spatial image information arrangement that matches the natural world, and the entire image information is changed to an intermediate size with no contradiction. It will be reconstructed as image information and can be viewed stereoscopically in the visual center.

又、自然界と一致した画像情報伸縮調整作用は、視中枢内に蓄積されている先天・後天の膨大な画像情報記憶情報群と該個々の画像情報とを検索照合しそれと一致するよう
伸縮調整する連携機能が存在していると思われる。」と 記載されている。
In addition, the image information expansion / contraction adjustment function that matches the natural world searches and collates a huge group of congenital and acquired image information stored in the visual center and the individual image information, and adjusts the expansion / contraction to match it. There seems to be a linkage function. "."

『視差画像情報』とは、
公知技術の両眼融合画像情報以外の両眼視差画像情報を、主に指す。
両眼視差画像情報とは、「左右眼球から見た差」画像情報を指し、必ず、左右眼球別画像情報の区別が、必要でなければ、成立しない。つまり、眼球中心原理にもとづく技術情報である。当然、『視差画像情報』では、『両形融合画像情報』『両組融合画像情報』『両形組融合画像情報』『両離輻輳融合画像情報』は、起こせない。
“Parallax image information”
The binocular parallax image information other than the binocular fusion image information of the publicly known technology is mainly indicated.
Binocular parallax image information refers to “difference seen from the left and right eyeballs” image information, and is not necessarily established unless the distinction between the left and right eyeball image information is necessary. That is, it is technical information based on the eyeball center principle. Naturally, in “parallax image information”, “double-shaped fusion image information”, “double-pair fusion image information”, “double-shape combination fusion image information”, and “double deconvergence fusion image information” cannot occur.

『画像情報の像形状情報』とは、
「平面画像情報の形状」を指し、「画像情報全体の大きさの情報」を指す。
“Image shape information of image information”
It refers to “the shape of planar image information” and refers to “information on the size of the entire image information”.

『画像情報の像形状画像情報種』とは、
「画像情報の像形状画像情報」を「種」とし、極めて簡単な例である「大形像系画像情報」と「小形像系画像情報」や同例の「組形像系画像情報と別の組形像系画像情報」などを 例とする各種少なくとも「2系」から構成される。
"Image shape image information type of image information"
“Image shape image information of image information” is “seed”, and “Large image system image information” and “Small image system image information” which are extremely simple examples, It is composed of at least “2 systems”, such as “another combined image system image information”.

『異系』とは
極めて簡単な例である「大形像系画像情報と小形像系画像情報」や同例の「組形像系画像情報と別の組形像系画像情報」などを 例とする各種少なくとも「2系」を指す。
“Different” is a very simple example such as “Large image system image information and small image system image information”, and “Example image information and another image system image information” in the same example. Refers to at least "2 systems" as examples.

『大形像系画像情報』とは、
「画像情報の像形状画像情報種」で「小形像系画像情報」より横もしくは、縦に 大きい形状の「平面画像情報」を指す。
What is “Large Image System Image Information”?
“Image shape image information type of image information” refers to “planar image information” having a shape that is larger in width or length than “small image system image information”.

『小形像系画像情報』とは、
「画像情報の像形状画像情報種」で「大形像系画像情報」より横もしくは、縦に 小さい形状の「平面画像情報」を指す。
What is “Small Image System Image Information”?
“Image shape image information type of image information” refers to “planar image information” that is smaller than “large image system image information” horizontally or vertically.

『組形像系画像情報』とは、
「大形像系画像情報」と「小形像系画像情報」をそれぞれ
2分した、組み合わせから生み出される。
What is "composite image system image information"?
"Large image system image information" and "Small image system image information" are each produced by a combination of two.

『融合』とは、
一般的には、溶け合って1つになる現象を指し、本発明の融合では、「2つの同種異系画像情報」である「各自互いに同種内で、差異を持った平面画像情報」同士が溶け合った後、脳の視中枢内で「1つの立体視できる、立体画像情報」として現れ、「両形融合画像情報」「両組融合画像情報」「両形組融合画像情報」「両離輻輳融合画像情報」が、あり、これに重ねて加え、各効果を共存できる融合技術情報として、「両飽和度融合画像情報」「両明度融合画像情報」「両像収差度融合画像情報」、および、「両像輪郭線度融合画像情報」が、ある。
What is “fusion”?
In general, this refers to a phenomenon that melts to become one, and in the fusion of the present invention, “two pieces of same-kind image information”, “two-dimensional image information having a difference within the same kind of each other” are fused together. After that, it appears as “stereoscopic image information that can be stereoscopically viewed” within the visual center of the brain, and “bimodal fusion image information”, “bimodal fusion image information”, “bimodal fusion image information”, “biconvergence fusion” There is "image information", and in addition to this, as fusion technology information that can coexist with each effect, "both saturation fusion image information""both lightness fusion image information""both image aberration degree fusion image information", and There is “Both-image contour-line fusion image information”.

『両形融合画像情報』とは、
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像情報の像形状情報」の画像情報を除いた「画像情報の像形状画像情報種」を、
像形状の一部、多部、もしくは、全部を各々「拡大」した「画像情報の像形状画像情報」、
像形状の一部、多部、もしくは、全部を各々「縮小」した「画像情報の像形状画像情報」、
像形状の一部、多部、もしくは、全部を「縦」、もしくは、「横に」各々圧縮した「画像情報の像形状画像情報」、
像形状の一部、多部、もしくは、全部を「縦」、もしくは、「横に」各々伸張された「画像情報の像形状画像情報」、
又は、原寸大の「画像情報の像形状画像情報」、
の各それぞれの組み合わせにより「大形像系画像情報」と「小形像系画像情報」
《「大形像系画像情報」と「小形像系画像情報」の
「横の長さの比率」は167:100、もしくは、100:60(誤差±10)までを許容範囲とし、
「縦の長さの比率」は100:114、もしくは、100:88(誤差±5)までを許容範囲とする。》
の少なくとも2つに分け、前記少なくとも2つに分けた「同種異系画像情報」同士の融合を「両形融合画像情報」と呼称し、立体画像情報として「空間深度画像情報」として現れる。
What is “Both Shape Image Information”?
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape of image information” excluding image information of “image shape information of image information” when forming the same shape as the varifocal mirror `` Image information type ''
"Image shape image information of image information" in which each part of the image shape, multiple parts, or all is "enlarged",
“Image shape image information of image information” in which a part, many or all of the image shape is “reduced”,
“Image shape image information of image information” in which a part, many or all of the image shape is compressed “vertically” or “laterally”, respectively.
"Image shape image information of image information" in which a part, many or all of the image shape is expanded "vertically" or "laterally", respectively.
Or the full-scale "image shape image information of image information",
"Large image system image information" and "Small image system image information"
<<"Large length ratio" of "Large image system image information" and "Small image system image information" is an allowable range up to 167: 100 or 100: 60 (error ± 10),
The “ratio of vertical length” is within the allowable range up to 100: 114 or 100: 88 (error ± 5). >>
The fusion of “similar / different image information” divided into at least two is called “bimodal fusion image information” and appears as “spatial depth image information” as stereoscopic image information.

おそらく、「横の長さの比率」は167:100、もしくは、100:60(誤差±10)の個人的数値は、自然界の普遍的法則から、黄金分割比100:161.8に、基づく値(161.8:100、もしくは、100:61.8)が、多数の人から得た平均値と 一致する値になると思われる。 Perhaps the “horizontal length ratio” is 167: 100 or 100: 60 (error ± 10), and the personal value is based on the universal law of nature, based on the golden division ratio of 100: 161.8. (161.8: 100 or 100: 61.8) is considered to be a value that agrees with the average value obtained from many people.

『両組融合画像情報』とは、
前記両形融合画像情報の「大形像系画像情報」と「小形像系画像情報」を各々更に 少なくとも2つに分解し 合計少なくとも4部とし 前記少なくとも2つに分解した「大形像系画像情報」
What is “Both-group fusion image information”?
The “large image system image information” and the “small image system image information” of the both-form fusion image information are further decomposed into at least two parts to make a total of at least four parts. Image Information "

(更に、前記少なくとも2つに分解した「大形像系画像情報」の一部分、多部分、全部分の何れかを「縦」もしくは、「横」に拡大・縮小・圧縮・伸張の1以上の様々な組み合わせ、もしくは、同重ね合わせで画像情報加工する「大形像系画像情報」も含まれる) (Furthermore, one or more of a part, a multi-part, and a whole part of the “large image-based image information” decomposed into at least two parts is expanded to “vertical” or “horizontal”. ("Large image system image information" is also included, which processes image information in various combinations or overlays)

の少なくとも1部と、同2つに分解した「小形像系画像情報」
(更に、前記少なくとも2つに分解した「小形像系画像情報」の一部分、多部分、全部分の何れかを「縦」もしくは、「横」に拡大・縮小・圧縮・伸張の1以上の様々な組み合わせ、もしくは、同重ね合わせで画像情報加工する「小形像系画像情報」も含まれる)
の少なくとも1部とを組み合せ、
この 計少なくとも2部で 少なくとも1組の連結した組形像を 少なくとも2組作り、これを新たな「組形像系画像情報」として
「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する
ことを指し、この「両組融合画像情報」からは、立体画像情報として、「空間深度画像情報」以外に 「空間突出度画像情報」としても現れる。
"Small image system image information" decomposed into at least a part of
(Furthermore, one or more of the “small image system image information” decomposed into at least two parts is expanded in one or more of “longitudinal” or “horizontal”, reduced, compressed, or expanded. "Small image system image information" that processes image information in various combinations or the same overlay is also included)
Combined with at least one part of
At least two sets of combined images are created in at least two copies in total, and these are used as new “composite image system image information”, and there is a difference in the image information comparison between “similar / different image information”. This means that image information is fused. From this “Both-set fused image information”, it also appears as “spatial protrusion degree image information” in addition to “spatial depth image information” as stereoscopic image information.

『両形組融合画像情報』とは、
前記『両形融合画像情報する「画像情報の像形状画像情報種」の系』と同記載の『両組融合画像情報する「画像情報の像形状画像情報種」の系』との「同種異系画像情報」同士の様々な組み合わせによる情報比較で差異を持ち画像情報融合することをさし、この「両形組融合画像情報」からは、立体画像情報としては、「空間歪性度画像情報」として現れる。
What is “Both-form combined image information”?
The above-mentioned “system of“ image shape image information type of image information ”for bimodal fusion image information” and “system of“ image shape image information type of image information ”for bimodal fusion image information” described above This means that image information is fused by comparing information by various combinations of "system image information". From this "both forms combined image information", the stereo image information is "spatial distortion image information" Appears as

『両離輻輳融合画像情報』とは、
「両形融合画像情報による両離輻輳融合画像情報」
「両組融合画像情報による両離輻輳融合画像情報」
「両形組融合画像情報による両離輻輳融合画像情報」
『両形融合画像情報と「両形融合画像情報による上下両離輻輳融合画像情報」』
『両組融合画像情報と「両組融合画像情報による上下両離輻輳融合画像情報」』
『両形組融合画像情報と「両形組融合画像情報による上下両離輻輳融合画像情報」』
『両形融合画像情報と「両形融合画像情報による左右両離輻輳融合画像情報」』
『両組融合画像情報と「両組融合画像情報による左右両離輻輳融合画像情報」』、および、
『両形組融合画像情報と「両形組融合画像情報による左右両離輻輳融合画像情報」』と、
「両形融合画像情報」「両組融合画像情報」、「両形組融合画像情報」、「上下」、および、「左右」の各1以上、同1以上の様々な組み合わせで、前記「両離輻輳融合画像情報」内で、少なくとも1部以上、もしくは、全部が、各入れ替わっているものを指す。
What is “both convergence and convergence image information”?
“Both deconvergence fusion image information based on bilateral fusion image information”
"Both deconvergence fusion image information by both sets fusion image information"
"Both deconvergence fusion image information by bimorphic fusion image information"
“Both-shaped fusion image information and“ Dual-convergence fusion image information based on both-shape fusion image information ””
“Both-set fusion image information and“ Both-set fusion image information based on both-set fusion image information ””
“Both-shaped set fusion image information and“ Up-and-down and de-convergence fusion image information by both-type set fusion image information ””
"Both-shaped fusion image information and" Right-and-left deconvergence fusion image information using both-shape fusion image information ""
"Both-set fusion image information and" Both-side fusion image information by both-set fusion image information ", and
“Both-shaped set fusion image information and“ Right-and-left deconvergence fusion image information by both-type set fusion image information ””,
“Both shape fusion image information”, “Both shape fusion image information”, “Both shape fusion image information”, “Upper and lower”, and “Left and right” each in one or more various combinations of the above “both” In the “devergence fusion image information”, at least one or more or all of them are replaced.

また、前記「両離輻輳融合画像情報」の詳細は、本特許請求範囲に 記載されている。   The details of the “both deconvergence fusion image information” are described in the claims.

また、「両離輻輳融合画像情報」現象の発見により、公開特許公報特開平8ー101469「平面画像情報を立体画像情報昇華する処理関連物および該製造方法」に掲載されている視中枢内の「連携伸縮機能による左右視差創造機能」以外に、視中枢内に、別の機能として、「確定融合画像情報に、移動視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在することを、新発見し述べている。   In addition, with the discovery of the phenomenon of “both devergence fusion image information” phenomenon, it is known in the published patent publication Japanese Patent Laid-Open No. Hei 8-101469 “Processing Related Substances for Sublimating Planar Image Information and Three-dimensional Image Information and the Manufacturing Method”. In addition to the function for creating left and right parallax using the coordinated expansion and contraction function, another function within the visual center is the function for creating right and left parallax for convergence that overlaps and fuses the moving viewpoint image information to the confirmed fused image information without contradiction , New discoveries and statements that exist.

『両飽和度融合画像情報』とは、
平面画像情報全体の「飽和度情報種」を 強い飽和度の「濃色系」と 弱い飽和度の「淡色系」この2系の同種異系同士の情報比較から脳内での融合機能より、融合可能な飽和度範囲内で、前記濃色系と 淡色系を 総和したものの中間の濃度で、立体感を得る技術のことであり、詳細は、公開特許公報特開平8ー101469「平面画像情報を立体画像情報昇華する処理関連物および該製造方法」に掲載されている。
What is “Both Saturation Fusion Image Information”?
From the comparison of information between the same type of two different systems, the “saturation information type” of the entire planar image information, the “saturation information type” of strong saturation and the “light color system” of weak saturation, This is a technique for obtaining a three-dimensional effect at an intermediate density of the sum of the dark color system and the light color system within the saturation range within which fusion is possible. For details, see Japanese Patent Application Laid-Open No. 8-101469 “Plane Image Information”. Related to the sublimation of stereoscopic image information and the manufacturing method thereof.

また、1994年(株)松下電気から発売された家庭用ゲーム機器「3DO−REAL」で、融合名称は、不明だが、技術内容は、コンピュータプログラム情報として、公知技術となっている。   In addition, in the home game machine “3DO-REAL” released from Matsushita Electric Co., Ltd. in 1994, the fusion name is unknown, but the technical content is publicly known as computer program information.

また、強度と弱度の中間の度合で、融合し、立体感を得るため、融合可能な飽和度範囲内で、強度を さらに強化するか、同弱度を さらに弱化することにより、変化を加える前の融合画像よりも、強度の方が、優先された立体画像情報を 得ることができる。(=以下、この現象を優先融合画像情報立体化効果と呼称する。)   In addition, in order to fuse and obtain a three-dimensional feeling at an intermediate level between strength and weakness, change by further strengthening the strength or further weakening the same weakness within the saturation range that can be fused. It is possible to obtain stereoscopic image information in which the intensity is prioritized over the previous fused image. (= Hereinafter, this phenomenon is referred to as preferential fusion image information stereoscopic effect.)

『両明度融合画像情報』とは、
平面画像情報の「明度画像情報種」を様々な強い明度の強明系と 同弱い明度の弱暗系の少なくとも2つに分け、「同種異系画像情報」同士の様々な組み合わせによる画像情報比較で差異を持ち画像情報融合すると、融合可能な明度範囲内で、強明系と 弱暗系を 総和したものの中間の明度で立体融合画像情報が、得られること。詳細は、公開特許公報特開平8ー101469「平面画像情報を立体画像情報昇華する処理関連物および該製造方法」に掲載されている。
What is “Brightness Fusion Image Information”?
Divide “Brightness Image Information Species” of flat image information into at least two types of strong light systems with various strong lightness and weak and dark systems with the same weak lightness, and compare image information by various combinations of “same image information of different types” If the image information is merged with a difference between the three, the three-dimensional fused image information can be obtained with the intermediate brightness of the sum of the strong and weak dark systems within the brightness range that can be fused. Details are described in Japanese Patent Application Laid-Open No. Hei 8-101469 “Processing-related products for sublimating planar image information to stereoscopic image information and the manufacturing method thereof”.

また、強度と弱度の中間の度合で、融合し、立体感を得るため、融合可能な明度範囲内で、強度を さらに強化するか、同弱度を さらに弱化することにより、変化を加える前の融合画像よりも、強度の方が、優先された立体画像情報を 得ることができる。(=以下、この現象を優先融合画像情報立体化効果と呼称する。)   Also, in order to fuse and obtain a three-dimensional feeling at an intermediate level between strength and weakness, before applying changes by further strengthening the strength or further weakening the same weakness within the lightness range that can be fused. It is possible to obtain stereoscopic image information in which the intensity is given priority over the fused image. (= Hereinafter, this phenomenon is referred to as preferential fusion image information stereoscopic effect.)

『両像収差度融合画像情報』とは、
平面画像情報の「像収差度画像情報種」を様々な強い像収差度の明瞭像系と 同弱い像収差度のぼやけ像系の少なくとも2つに分け、「同種異系画像情報」同士の様々な組み合わせによる画像情報比較で差異を持ち画像情報融合すると、融合可能な像収差度範囲内で、明瞭像系と ぼやけ像系を 総和したものの中間の像収差度で立体融合画像情報が、得られること。詳細は、公開特許公報特開平8ー101469「平面画像情報を立体画像情報昇華する処理関連物および該製造方法」に掲載されている。
What is "Both-image aberration degree fusion image information"
Divide the "image aberration degree image information type" of planar image information into at least two types of clear image system with various strong image aberration degrees and blurred image system with the same weak image aberration degree. When image information is merged with differences in image information comparison by various combinations, three-dimensional fused image information can be obtained with an intermediate image aberration degree within the range of image aberration degrees that can be fused, with the sum of the clear image system and the blurred image system. thing. Details are described in Japanese Patent Application Laid-Open No. Hei 8-101469 “Processing-related products for sublimating planar image information to stereoscopic image information and the manufacturing method thereof”.

また、強度と弱度の中間の度合で、融合し、立体感を得るため、融合可能な像収差度範囲内で、強度を さらに強化するか、同弱度を さらに弱化することにより、変化を加える前の融合画像よりも、強度の方が、優先された立体画像情報を 得ることができる。(=以下、この現象を優先融合画像情報立体化効果と呼称する。)   Also, in order to fuse and obtain a three-dimensional feeling at an intermediate level between strength and weakness, change the intensity by further strengthening the intensity or further weakening the same weakness within the range of image aberration that can be fused. It is possible to obtain stereoscopic image information in which the intensity is prioritized over the fusion image before being added. (= Hereinafter, this phenomenon is referred to as preferential fusion image information stereoscopic effect.)

『両像輪郭線度融合画像情報』とは、
平面画像情報の「像輪郭線度画像情報種」を様々な強い像輪郭線度の太輪郭線系と 同弱い像輪郭線度の細輪郭線系の少なくとも2つに分け、「同種異系画像情報」同士の様々な組み合わせによる画像情報比較で差異を持ち画像情報融合すると、融合可能な像輪郭線度範囲内で、太輪郭線系と 細輪郭線系を 総和したものの中間の像輪郭線度で立体融合画像情報が、得られること。詳細は、公開特許公報特開平8ー101469「平面画像情報を立体画像情報昇華する処理関連物および該製造方法」に掲載されている。
"Both-image contour-line fusion image information"
The “image contour linearity image information type” of the planar image information is divided into at least two types: a thick contour system with various strong image contour degrees and a thin contour system with the same weak image contour degree. When image information is merged by comparing image information by various combinations of information, the image contour linearity is the middle of the sum of the thick contour system and the thin contour system within the image contour linearity range that can be merged 3D image information can be obtained. Details are described in Japanese Patent Application Laid-Open No. Hei 8-101469 “Processing-related products for sublimating planar image information to stereoscopic image information and the manufacturing method thereof”.

また、強度と弱度の中間の度合で、融合し、立体感を得るため、融合可能な像輪郭線度範囲内で、強度を さらに強化するか、同弱度を さらに弱化することにより、変化を加える前の融合画像よりも、強度の方が、優先された立体画像情報を 得ることができる。(=以下、この現象を優先融合画像情報立体化効果と呼称する。)   Also, in order to fuse and obtain a three-dimensional feeling at an intermediate level between strength and weakness, change by further strengthening the strength or further weakening the weakness within the range of image contour lineability that can be fused. It is possible to obtain stereoscopic image information in which the intensity is prioritized compared to the fusion image before the image is added. (= Hereinafter, this phenomenon is referred to as preferential fusion image information stereoscopic effect.)

『優先融合画像情報立体化効果』とは、
「両飽和度融合画像情報」「両明度融合画像情報」「両像収差度融合画像情報」、および、「両像輪郭線度融合画像情報」で、見受けられる効果であり、詳細は、前記各融合情報の用語の説明終わりに、記載されている。
What is “Priority Fusion Image Information 3D Effect”?
This is an effect that can be seen in “saturation fusion image information”, “brightness fusion image information”, “both image aberration degree fusion image information”, and “both image contour degree fusion image information”. It is described at the end of the explanation of the terminology of the fusion information.

『差異』とは、
例えば、「大形像系画像情報と小形像系画像情報」の横の長さ、もしくは、縦の長さ 比較で「差」があることを指し、他の例において、異系同士での比較での「差」でも、同様である。「差異=ゼロ」であれば、『融合』は起こらず、平面画像情報になる。
“Difference”
For example, it indicates that there is a “difference” in the horizontal length or vertical length comparison of “large image system image information and small image system image information”. The same applies to “difference” in comparison. If "difference = zero", "fusion" does not occur and plane image information is obtained.

また、両離輻輳融合画像情報が、働く場合では、各画像情報の中心線同士の位置比較において、前記差異が、生じ、不一致となることも含まれる。極めて簡単な例では、各画像情報の中心線同士の位置比較で、極めて簡単な例である「左寄り、右寄り」などを 例とする各種「ずれ」がある場合。 In addition, in the case where both deconvergence fusion image information works, it is included that the difference occurs and does not match in the position comparison between the center lines of each image information. In a very simple example, there are various “deviations” such as “left and right” that are very simple examples in the position comparison between the center lines of each image information.

『光』とは、本発明では、一般的解釈としての連続した光を指す。 In the present invention, “light” refers to continuous light as a general interpretation.

『信号』とは、
本発明では、一般的解釈と 同じく非連続したもので、極めて簡単な例である「磁気情報・電気情報・電磁波情報・粒子線情報、画像情報、音情報・視覚情報・聴覚情報・嗅覚情報、触覚情報、味覚情報・人が認識可能な 私的・地域的・公知的概念認識情報・人が推定可能な 私的・地域的・公知的連想推定情報・以上のいずれか1以上の様々な組み合わせ、もしくは、同重ね合わせで構成している情報、および、同構成させられている情報の何れか1つ以上からなる情報」などを 例とする各種各信号がある。
“Signal”
In the present invention, it is discontinuous as in general interpretation, and is an extremely simple example of “magnetic information, electrical information, electromagnetic wave information, particle beam information, image information, sound information, visual information, auditory information, olfactory information, Tactile information, taste information, human-recognizable private / regional / known concept recognition information, human-estimable private / regional / known associative estimation information, various combinations of one or more of the above Alternatively, there are various types of signals such as information composed of the same superposition and information composed of one or more of the information composed in the same manner.

『画像情報信号、および、画像情報光』とは、
抽象的「画像情報」が、「信号」、もしくは、「光」で具体的形として構成されるもので、「画像情報」の具体的表現手段・具体的伝達手段をなしている。
"Image information signal and image information light"
The abstract “image information” is composed of “signal” or “light” as a specific form, and constitutes a specific expression means and a specific transmission means of “image information”.

『画像情報処理装置』とは、
「立体画像情報処理装置」と「平面画像情報処理装置」で構成さる。
With "image information processing device"
It is composed of a “stereoscopic image information processing apparatus” and a “planar image information processing apparatus”.

『画像情報保持物』とは、
「平面画像情報保持物」と「立体画像情報保持物」とからなる。
What is "image information holding material"?
It consists of “planar image information holding” and “stereoscopic image information holding”.

『立体画像情報処理装置』とは、
本発明では立体画像情報を平面画像情報に変換でき、逆に平面画像情報を立体画像情報にも同できるため、立体画像情報処理装置は、「画像情報立体化処理装置」「平面画像情報処理装置」「立体画像情報保持物」、および、「平面画像情報保持物」で構成され、「平面画像情報処理装置と平面画像情報保持物 同士を 繋いだ組み合わせのみを 除く 」2以上と 同2以上の様々な繋いだ組み合わせから 立体画像情報を得ることが可能となり、「これら全て」を、指す。
What is “stereoscopic image information processing device”?
In the present invention, stereoscopic image information can be converted into planar image information, and conversely, the planar image information can be converted into stereoscopic image information. Therefore, the stereoscopic image information processing apparatus includes “image information stereoscopic processing apparatus”, “planar image information processing apparatus”. "3D image information holding material" and "Plane image information holding material", "Excluding only the combination that connects the flat image information processing device and the flat image information holding material" Three-dimensional image information can be obtained from various connected combinations, and refers to “all of these”.

「平面画像情報」を『処理』する『平面画像情報保持物』・『平面画像情報処理装置』は、『立体画像情報保持物』・『画像情報立体化処理装置』と『繋ぐ』ことにより、「平面画像情報」のみならず、「立体画像情報」をも『処理』するものと成る。 The “planar image information holding object” and “planar image information processing apparatus” that “process” the “planar image information” are “connected” with the “stereoscopic image information holding object” and the “image information three-dimensional processing apparatus”. Not only “planar image information” but also “stereoscopic image information” is “processed”.

従って、『立体画像情報処理装置』とは、「平面画像情報保持物」「平面画像情報処理装置」を「立体画像情報保持物」「画像情報立体化処理装置」との 様々な繋いだ組み合わせから生まれる「繋いだ装置」をも指す。   Therefore, “stereoscopic image information processing device” means “planar image information holding material” and “planar image information processing device” from various connected combinations of “stereoscopic image information holding material” and “image information three-dimensional processing device”. Also refers to the “connected device” that is born.

極めて簡単な例として、具体的に述べると、<「画像情報立体化処理装置」の「単独の装置」と、「平面画像情報処理装置」「平面画像情報保持物」に「画像情報立体化処理装置」を「繋いだ装置」>と、<「平面画像情報処理装置」に「立体画像情報保持物」を「繋いだ装置」との 各、様々な繋いだ組み合わせから生まれる「繋いだ装置」>を指す。   As an extremely simple example, it will be described in detail as follows: <"Single device" of "Image information three-dimensional processing device" and "Image information three-dimensional processing" in "Plane image information processing device" "Plane image information holding object" "Connected device"> and "connected device" born from various connected combinations of "planar image information processing device" and "stereoscopic image information storage" connected to "connected device"> Point to.

「立体画像情報処理装置」は、「立体画像情報処理装置」内の各「繋ぐ」行為により「形成」されるとも言える。  It can be said that the “stereoscopic image information processing apparatus” is “formed” by each “connecting” action in the “stereoscopic image information processing apparatus”.

また、『立体画像情報処理装置』には、
(1)、「繋ぐ前」の「平面画像情報」発信源側に、「立体画像情報」を工夫して持たした後、「発信」して「受信」することにより、「繋ぎ」、『立体画像情報処理装置』を製造することができる。
(2)、「平面画像情報」発信源側と「繋いだ後」の受信側「画像情報関連物」の「平面画像情報」側に、「立体画像情報」を工夫して持たし『立体画像情報処理装置』を製造することができる。
(3)、上記(1)(2)との様々な組み合わせに依り、『立体画像情報処理装置』を製造できる。
In addition, “stereoscopic image information processing device”
(1) The “planar image information” transmission source side of “before connection” is devised with “stereoscopic image information”, then “transmitted” and “received”, thereby “connecting”, “stereoscopic information” An “image processing apparatus” can be manufactured.
(2) “Stereoscopic image information” is devised on the “Plane image information” side of the “Image information related object” on the “Plane image information” transmission source side and “Receiver side” after “Connected”. An “information processing apparatus” can be manufactured.
(3) Depending on various combinations with (1) and (2) above, a “stereoscopic image information processing apparatus” can be manufactured.

『繋ぐ』とは、
本発明では、「情報」が「繋がる」ことを指し、ネットワーク、有線、無線、接触、および、非接触を 問わない。
“Connect”
In the present invention, “information” means “connected”, and may be network, wired, wireless, contact, and non-contact.

『平面画像情報保持物』とは、
文字から一般的に解釈できるように、「平面画像情報」を「保ち持つ物」と言う意味で、主に受動的な画像情報の獲得物とも 言える。
What is "planar image information holding material"?
As can be generally interpreted from characters, it means that “planar image information” is a “maintained object”, and it can be said that it is mainly an acquisition of passive image information.

また、平面画像情報保持物とは、平面画像情報を中心としたソフトウェアを保ち持つ物と言う事であり、同情報の増減、消失は有り得る。また、本発明におけるソフトウェアとは、従来のコンピューターハードウェアに対するソフトウェア(コンピュータ言語により構築されるもの)に留まらず広く情報処理された、情報処理される、前記各処理が予定される、もしくは、前記各処理が可能と看做される各情報を指す。   Further, the planar image information holding object is an object having software centered on the planar image information, and the information can be increased or decreased or lost. In addition, the software in the present invention is not limited to software for conventional computer hardware (constructed in a computer language), but is widely processed, processed, or scheduled for each of the above processes, or It refers to each piece of information that can be considered as possible.

また、平面画像情報・平面画像情報演算情報、平面画像情報検索情報・平面画像情報照合情報・平面画像情報制御情報・平面画像情報実行情報・平面画像情報入力情報・平面画像情報記憶情報・平面画像情報記録情報・平面画像情報加工情報・平面画像情報出力情報・平面画像情報再生情報・平面画像情報印刷情報・平面画像情報表示情報・平面画像情報送信情報、および、平面画像情報受信情報の内、1以上、同1以上の様々な組み合わせを必要とする「物」を指す。   Also, plane image information, plane image information calculation information, plane image information search information, plane image information collation information, plane image information control information, plane image information execution information, plane image information input information, plane image information storage information, plane image Among information recording information, plane image information processing information, plane image information output information, plane image information reproduction information, plane image information print information, plane image information display information, plane image information transmission information, and plane image information reception information, One or more, “things” that require various combinations of one or more.

前記画像情報保持物を、極めて簡単な例として、以下に 各具体的に述べると、
画像情報処理部が、平面画像情報体類・並列体類・並列融合体類・2層以上の積層体類・傾斜体類・曲面体類・交差体類・回転体類・円柱体類・多面体類・放射状体類・円盤体類・線対称体類・点対称体類・紙類・布類・フィルムシート類・鏡類・液晶類・ガラス類・シリンドリカルレンズアレイ板類・レンティキュラレンズ類・レンズ類・バララックスバリア物類・プラスチック類・放電灯類・蛍光管類・蛍光体類・発光ダイオード類・光ファイバー類・レーザー光線類・無機有機のエレクトロルミネッセンス素子類・プラズマ類・電気類・電圧類・電界類・電子類・電磁波類・電波類・放電類・磁気類・熱類・紫外線類・粒子線類・霧類・蒸気類・水類・氷類・雪類・雲類・泡類・海水類・マイクロメモリチップ類・メモリーカード類・チップ類IC(集積回路)タグ類・2次元バーコード・衣類、および、5感覚情報保持の空間類の以上述べた全ての中で何れか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせから構成された画像情報処理(主に受動的)部に画像情報処理(おもに受動的)する平面画像情報保持物類。
Each of the image information holding objects will be described in detail below as a very simple example.
The image information processing unit is a plane image information object, parallel object, parallel fusion object, two or more layers, inclined object, curved object, intersecting object, rotating object, cylindrical object, polyhedron , Radial objects, disc bodies, line symmetry bodies, point symmetry bodies, papers, cloths, film sheets, mirrors, liquid crystals, glass, cylindrical lens array plates, lenticular lenses, etc. Lenses, Ballarax barriers, Plastics, Discharge lamps, Fluorescent tubes, Phosphors, Light emitting diodes, Optical fibers, Laser beams, Inorganic organic electroluminescent devices, Plasmas, Electrics, Voltages・ Electric fields, electrons, electromagnetic waves, radio waves, discharges, magnetism, heat, ultraviolet rays, particle beams, fog, steam, water, ice, snow, clouds, bubbles, Seawater, micro memory chips, memory cards, One or more of the above-mentioned ICs (integrated circuit) tags, two-dimensional barcodes, clothing, and five sensory information holding spaces, or a combination of one or more of the above, or Planar image information holding objects that perform image information processing (mainly passive) on an image information processing (mainly passive) unit composed of various similar overlays.

さらに、感光紙・ポジフィルムとネガフィルムの写真類・写真集類・航空写真類・芸術写真集類・カタログ類・通販カタログ類・チラシ類・パンフレット類・新聞類・週刊誌類・ガイド集類・図鑑類・ポスター類・カレンダー類・雑誌類・書籍類・百科事典類・辞典類・辞書類・地図類・図面類・設計図類・住宅図類・ビル図類・モデルルーム図類・写真アルバム類・スライド写真類・絵本類・絵画類・版画類・挿絵類・壁画類・看板類・回転看板類・計測機器類・家庭用電気機器類・音響機器類・通信機器類・医療機器類・医療用CTスキャン機器類・X線写真フィルム類・カメラ類・電子辞書類・モニター類・チューナー類・印刷機器類・複写機器類・スキャナー機器類・レコーダー機器類・プレーヤー機器類・サーバー機器類・ルーター機器類・ファクシミリ機器類・コンパクトディスク類・ディジタル多用途ディスク類・ブルーレイディスク類・磁気磁性体類・光磁気磁性体類・光波長ディスク類 In addition, photographic paper, positive film and negative film photography, photo collections, aerial photography, art photography collections, catalogs, mail order catalogs, flyers, brochures, newspapers, weekly magazines, guide collections・ Picture books, posters, calendars, magazines, books, encyclopedias, dictionaries, dictionaries, maps, drawings, design drawings, housing drawings, building drawings, model room drawings, photographs Albums, slide photographs, picture books, paintings, prints, illustrations, murals, signboards, rotating signboards, measuring instruments, household electrical equipment, acoustic equipment, communication equipment, medical equipment, etc. -Medical CT scan equipment-X-ray photographic film-Cameras-Electronic dictionary-Monitors-Tuners-Printing equipment-Copying equipment-Scanner equipment-Recorder equipment-Player equipment-Server equipment・ Router Equipment facsimile equipment compact disc such digital versatile disk such, Blu-ray disc such-magnetic magnetic compound, a magneto-optical magnetic compound, an optical wavelength disc such

更に、ビデオテープ類・ディジタルテープ類・ディジタルディスク類・映画用映像情報類・家庭ゲーム機器類・業務用ゲーム機器類・マイクロフィルム類・端末機類・無線と有線のテレビジョン放送番組類および該資料類・ランダムアクセスメモリー類・リードオンリィーメモリー類・セントラルプロセッシングユニィト類・マイクロプロセッサ類・コンピューター用プログラム類・コンピューター用オペレ−ティングシステム類・コンピューター用アプリケーション類・パーソナルコンピューターグラフィクス類・ブルートゥルースシステム機器類・トロンコンピューター用マイクロコンピューターチップ類・マイクロメモリチップ類・メモリーカード類・ローカルエリアネットワークシステム網類・インターネットシステム網類・無線システム網類・有線システム網類・衛星放送網類・衛星通信網類・コンピューターネットシステム網類 Furthermore, video tapes, digital tapes, digital discs, video information for movies, home game machines, arcade game machines, microfilms, terminals, wireless and wired television broadcast programs, and the like Materials, random access memory, read-only memory, central processing units, microprocessors, computer programs, computer operating systems, computer applications, personal computer graphics, blue truth system Equipment ・ Microcomputer chips for TRON computers ・ Micro memory chips ・ Memory cards ・ Local area network systems ・ Internet systems ・ Wireless systems Temu network class-wired system network such, satellite broadcast network such, a satellite communication network such computers net system network such

更に、前記チップ類IC(集積回路)タグ類や網類の管理される端末商品としての同食べ物類・同食べ物関連品類・同衣類・同衣類関連類・同日用品類・同文房具類・同大工用品類・同家具類・同書籍類・同電気製品類・同電子製品類・同音響製品類・同玩具類・同医療品類・同薬類・同乳児用品類・同高齢者用品類・同各介護用品類・同住居類・同建造物類・同郵送物類・同配送物類・同旅行用品類・同乗り物類・同乗り物関連小物類・同棚卸し検品類・同歩道などへの埋め込み型状況情報指示物類・ユビキタスコンピューティングネットワーク類・その他のIC(集積回路)チップ搭載物類・文字類・数字類・記号類・符号類、2次元バーコード搭載物、衣類、5感覚情報保持の空間類、A5感空間を携える平面画像情報保持物、A5感空間を携える平面画像情報処理装置類、A5感空間を携える画像情報処理装置類、および、模様類の
以上述べた全ての物に載せられている平面画像情報としてのソフトウェア類、その他の平面画像情報のソフトウェア類、その他の工業的平面画像情報のソフトウェア類、その他の個人的平面画像情報のソフトウェア類、と
以上全て述べたソフトウェアとしての平面画像情報保持物、もしくは/および、同処理装置に前記平面画像情報を載せる前の、同載せられる前の、或いは、該情報を幾らかでも載せる予定、同載せられる予定、および、該情報を幾らかでも載せることができる、同載せられることができる平面画像情報保持予定物と 同画像情報保持可能物が有る。
Furthermore, the same foods, food-related products, the same clothing, the same clothing-related items, the same-day supplies, the same stationery, the same carpenter as the terminal products managed by the chip IC (integrated circuit) tags and nets Supplies, furniture, books, electrical products, electronic products, acoustic products, toys, medical products, medicines, infant products, elderly products, etc. Embedded in nursing care products, housing, buildings, mailed items, delivery items, travel products, vehicle-related items, vehicle-related accessories, inventory inspection items, sidewalks, etc. Type status information indicators, ubiquitous computing networks, other IC (integrated circuit) chip mounted items, characters, numbers, symbols, codes, two-dimensional barcode mounted items, clothing, 5 sensory information retention Space, flat image information holding object with A5 feeling space, A5 feeling Flat image information processing devices that carry a space, image information processing devices that carry an A5 sensation space, software as flat image information placed on all of the above-mentioned objects such as patterns, and other flat image information Software, other industrial flat image information software, other personal flat image information software, flat image information holding material as software described above, and / or the processing device Plane image that can be loaded before the image information is loaded, before the image is loaded, or when the information is scheduled to be loaded, when the information is loaded, and when the information is loaded. There are things that can hold the same image information as those that are scheduled to be held.

『立体画像情報保持物』とは、
文字から一般的に解釈できるように、「立体画像情報」を「保ち持つ物」と言う意味で、主に受動的な立体画像情報の獲得物とも 言える。
What is “stereoscopic image information holding material”?
As can be generally understood from characters, it means that “stereoscopic image information” is a “maintained object”, and it can be said that it is mainly an acquisition of passive stereoscopic image information.

また、「立体画像情報」「情報演算情報」「情報検索情報」「情報受信情報」「情報入力情報」「情報記憶情報」「情報記録情報」「情報照合情報」「情報制御情報」「情報実行情報」「情報加工情報」「情報出力情報」「情報再生情報」「情報印刷情報」「情報表示情報」、および、「情報送信情報」の内、1以上、同1以上の様々な組み合わせと 「立体画像情報」との組み合わせを持つ「物」も指す。   In addition, “stereoscopic image information” “information calculation information” “information retrieval information” “information reception information” “information input information” “information storage information” “information recording information” “information verification information” “information control information” “information execution” Among information, information processing information, information output information, information reproduction information, information printing information, information display information, and information transmission information, one or more, and one or more various combinations thereof It also refers to “thing” having a combination with “stereoscopic image information”.

また、立体画像情報保持物とは、立体画像情報を中心とした ソフトウェア類を保ち持つ物と言う事でもあり、同情報の増減、消失は有り得る。 In addition, the three-dimensional image information holding object is also a thing that maintains software centering on the three-dimensional image information, and the information may increase or decrease or disappear.

立体画像情報保持物を極めて簡単な例として、具体的に述べると、前記平面画像情報保持物の具体例から平面画像情報のソフトウェア類を立体画像情報のソフトウェア類に変換した物であり、立体画像情報保持予定物と同画像情報保持可能物をも含む。 More specifically, as a very simple example of the stereoscopic image information holding material, the stereoscopic image information software is converted into the stereoscopic image information software from the specific example of the planar image information holding material. The information holding scheduled object and the same image information holding object are also included.

『処理、もしくは、処理情報』とは、
本発明では、情報を演算すること、情報を検索すること、情報を受信すること、情報を入力すること、情報を記憶すること、情報を記録すること、情報を照合すること、情報を制御すること、情報を実行すること、情報を加工すること、情報を出力すること、情報を再生すること、情報を印刷すること、情報を表示すること、情報を送信すること、情報が演算されること、情報が検索されること、情報が受信されること、情報が入力されること、情報が記憶されること、情報が記録されること、情報が照合されること、情報が制御されること、情報が実行されること、情報が加工されること、情報が出力されること、情報が再生されること、情報が印刷されること、情報が表示されること、もしくは、情報が送信されること、の内、1以上、同1以上の様々な組み合わせから構成される、1以上の能動、もしくは、同受動のいずれかの行為を言う。
“Processing or processing information”
In the present invention, computing information, retrieving information, receiving information, inputting information, storing information, recording information, collating information, controlling information Executing information, processing information, outputting information, reproducing information, printing information, displaying information, transmitting information, information being calculated Information is retrieved, information is received, information is input, information is stored, information is recorded, information is verified, information is controlled, Information is executed, information is processed, information is output, information is reproduced, information is printed, information is displayed, or information is transmitted 1 or more of 1 or more composed of various combinations, one or more active or refers to any act of the passive.

『情報の加工』とは、
本発明における情報の加工とは、物理的機械的加工行為、光学的加工行為、ディジタル化技術と コンピュータプログラム言語による情報演算、情報記憶、情報制御、情報検索、情報照合、および、情報実行から生み出されるディジタル的加工行為を含む。また、前記コンピューター機能としての情報演算、情報記憶、情報制御、情報検索、情報照合、および、情報実行は、本処理情報と 1部以上が、重層している。
What is information processing?
Information processing in the present invention is a result of physical mechanical processing action, optical processing action, digitization technology and information calculation by computer program language, information storage, information control, information retrieval, information verification, and information execution. Including digital processing. In addition, information processing, information storage, information control, information retrieval, information collation, and information execution as the computer function are overlapped by one or more copies of this processing information.

『立体画像情報保持予定物、平面画像情報保持予定物』とは、
立体画像情報保持物、平面画像情報保持物とも立体・平面画像情報の各画像情報が載せられていない物(極めて簡単な1例として未使用のディジタルデスク類)で、将来、該各画像情報が載せられる予定が、見込める物を、立体画像情報保持予定物、平面画像情報保持予定物として各々立体画像情報保持物、平面画像情報保持物の中に含まれる。
"Three-dimensional image information holding plan, plane image information holding plan"
The three-dimensional image information holding object and the two-dimensional image information holding object are ones that do not carry the three-dimensional / two-dimensional image information information (unused digital desks as an extremely simple example). Objects that are expected to be placed are included in a stereoscopic image information holding object and a planar image information holding object as a stereoscopic image information holding scheduled object and a planar image information holding scheduled object, respectively.

『立体画像情報保持可能物、平面画像情報保持可能物』とは、
立体画像情報保持物、平面画像情報保持物とも立体・平面画像情報の各画像情報が載せられていない物(極めて簡単な1例として未使用のディジタルデスク)で、現時点で、該各画像情報を 載せられることが、できる物を 立体画像情報保持可能物、平面画像情報保持可能物として各々立体画像情報保持物、平面画像情報保持物の中に含まれる。
"Three-dimensional image information holding object, flat image information holding object"
The three-dimensional image information holding object and the two-dimensional image information holding object are objects on which each image information of the three-dimensional / two-dimensional image information is not placed (as an extremely simple example, an unused digital desk). Objects that can be placed are included in the three-dimensional image information holding object and the two-dimensional image information holding object as the three-dimensional image information holding object and the two-dimensional image information holding object, respectively.

『平面画像情報処理装置』とは、
文字から一般的に解釈できるように、「平面画像情報」を「処理」する「装置」と言う意味である。
“Planar image information processing device”
It means "device" that "processes""planar image information" so that it can be generally interpreted from characters.

また、本発明では、平面画像情報処理装置は、処理が、1以上の行為の集まりであるため、装置の集まりであるシステムおよび同施設類・設備類・接触類・非接触類・有線類、および、無線類の内、1以上と1以上の様々な組み合わせ、もしくは、同重ね合わせので繋がった各網の概念(別名ネットワークと読んでも良い)も含まれる。 Further, in the present invention, the processing of the flat image information processing apparatus is a collection of one or more actions, so the system and the facilities / equipment / contacts / contactless / wired In addition, the wireless network includes one or more and one or more various combinations, or the concept of each network connected by overlapping (also referred to as a network).

極めて簡単な例として、以下に、各具体的に述べると、
画像情報処理部が、平面画像情報体類・並列体類・並列融合体類・2層以上の積層体類・傾斜体類・曲面体類・交差体類・回転体類・柱体類・多面体類・放射状体類・円盤体類・線対称体類・点対称体類・紙類・布類・フィルム類・シート類・鏡類・液晶類・ガラス類・シリンドリカルレンズアレイ板類・レンティキュラレンズ類・レンズ類・バララックスバリア物類・プラスチック類・放電灯類・蛍光管類・蛍光体類・発光ダイオード類・光ファイバー類・レーザー光線類・無機有機のエレクトロルミネッセンス素子類・プラズマ類・電気類・電圧類・電界類・電子類・電磁波類・電波類・放電類・磁気類・熱類・紫外線類・粒子線類・霧類・蒸気類・水類・氷類・雪類・雲類・泡類・海水類、衣類、および、5感覚情報保持の空間類の以上述べた全ての中で何れか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせから構成された画像情報処理部に画像情報処理する、もしくは、処理予定され得る平面画像情報処理装置類。
As a very simple example, here are the specific details:
The image information processing unit is a plane image information body, parallel body, parallel fusion body, two or more layers, slant body, curved surface body, intersecting body, rotating body, column body, polyhedron , Radial objects, disk bodies, line symmetry objects, point symmetry objects, papers, cloths, films, sheets, mirrors, liquid crystals, glass, cylindrical lens array plates, lenticular lenses / Lenses / Barralux Barriers / Plastics / Discharge Lamps / Fluorescent Tubes / Phosphors / Light Emitting Diodes / Optical Fibers / Laser Lights / Inorganic Organic Electroluminescence Devices / Plasmas / Electricity / Voltages, electric fields, electrons, electromagnetic waves, radio waves, electric discharges, magnetism, heat, ultraviolet rays, particle beams, fog, steam, water, ice, snow, clouds, bubbles Of water, seawater, clothing, and space for holding 5 sensory information Planar image information that can be processed or scheduled to be processed by an image information processing unit that is composed of any one or more of the above-described ones, various combinations of the same or more, or similar various overlays. Processing equipment.

さらに、衣類、眼鏡類、双眼鏡類、望遠鏡類、顕微鏡類、拡大鏡類、カメラ類、ディジタルカメラ類、ビデオカメラ類、テレビジョンカメラ類、アクチビジョンカメラ類、ハープカメラ類、CCD(電荷結合素子)カメラ類、航空撮影カメラ類、医療用カメラ類、医療手術機器一体システム処理施設類、インターネット利用医療手術機器一体システム処理施設類、接触類・非接触類・有線類、および、無線類の内、1以上と1以上の様々な組み合わせ、もしくは、同重ね合わせ利用の医療用システム処理施設類、映画撮影用カメラ類、映写機類、投影機類、映画用画像情報投影システム処理装置類、カメラ類一体型映画用処理装置類、映画館類、映画施設類、ドーム形映画施設類、電子辞書類、モニター類、ビデオモニター類、携帯用モニター類、チューナー類、印刷機器類、複写機器類、スキャナー機器類、レコーダー機器類、プレーヤー機器類、サーバー機器類、ルーター機器類、ファクシミリ機器類、ロボット機器類、ロボット類、バーチャルリアリティー機器類、GPS(グローバルポジショニングシステム)などを搭載のスポーツカーなどを 例とする各種車輌類、GPS(グローバルポジショニングシステム)などを搭載の船舶などを 例とする各種乗り物類。   In addition, clothing, glasses, binoculars, telescopes, microscopes, magnifiers, cameras, digital cameras, video cameras, television cameras, activision cameras, harp cameras, CCDs (charge coupled devices) ) Cameras, aerial photography cameras, medical cameras, medical surgical equipment integrated system processing facilities, Internet-based medical surgical equipment integrated system processing facilities, contact / non-contact / wired, and wireless Medical system processing facilities using one or more and one or more various combinations, or overlapping use, movie shooting cameras, projectors, projectors, movie image information projection system processing devices, cameras Integrated movie processing equipment, movie theaters, movie facilities, dome movie facilities, electronic dictionaries, monitors, video monitors, portable monitors , Tuners, printing equipment, copying equipment, scanner equipment, recorder equipment, player equipment, server equipment, router equipment, facsimile equipment, robot equipment, robots, virtual reality equipment, GPS Various vehicles such as sports cars equipped with (Global Positioning System), etc., and various vehicles such as ships equipped with GPS (Global Positioning System).

さらに、電光看板類、回転看板類、計測機器類、家庭用電気機器類、音響機器類、通信機器類、医療機器類、医療用CT(コンピュータトモグラフィー)スキャン機器類、医療用PET(陽電子放出断層撮影)スキャン機器類、X線撮影システム処理施設類、写真フィルム処理施設類、コンパクトディスク網システム処理施設類、ディジタル多用途ディスクシステム網システム処理施設類、ブルーレイディスク網システム処理施設類、磁気磁性体網システム処理施設類、光磁気磁性体網システム処理施設類、光波長ディスク網システム処理施設類、ビデオテープ網システム処理施設類、ディジタルテープ網システム処理施設類、ディジタルディスク網システム処理施設類。   In addition, electronic signboards, rotating signboards, measuring instruments, household electrical equipment, acoustic equipment, communication equipment, medical equipment, medical CT (computer tomography) scanning equipment, medical PET (positron emission tomography) Photography) Scanning equipment, X-ray imaging system processing facilities, photographic film processing facilities, compact disc network system processing facilities, digital versatile disc system network system processing facilities, Blu-ray disc network system processing facilities, magnetic magnetic material Network system processing facilities, magneto-optical magnetic network system processing facilities, optical wavelength disk network system processing facilities, video tape network system processing facilities, digital tape network system processing facilities, digital disk network system processing facilities.

さらに、映画用映像情報網システム処理施設類、家庭ゲーム網システム処理施設類、業務用ゲーム網システム処理施設類、端末機器網システム処理施設類、無線・有線のテレビジョン放送番組類および該資料網システム処理施設類、ランダムアクセスメモリー網システム処理施設類、リードオンリィーメモリー網システム処理施設類、セントラルプロセッシングユニィト網システム処理施設類。   Furthermore, movie video information network system processing facilities, home game network system processing facilities, commercial game network system processing facilities, terminal equipment network system processing facilities, wireless and wired television broadcast programs, and the data network System processing facilities, random access memory network system processing facilities, read-only memory network system processing facilities, central processing unit network system processing facilities.

さらに、マイクロプロセッサ網システム処理施設類、コンピューター用プログラム網システム処理施設類、コンピューター用オペレ−ティングシステム網システム処理施設類、オフィスオートメイションオペレ−ティングシステム網システム処理施設類、ファクトリーオートメイションオペレ−ティングシステム網システム処理施設類、コンピューター用アプリケーション網システム処理施設類、パーソナルコンピュータグラフィクス網システム処理施設類、ブルートゥルース網システム処理施設類、トロンコンピューター用マイクロコンピューターチップ網システム処理施設類、マイクロメモリチップ網システム処理施設類、メモリーカード類網システム処理施設類、ローカルエリアネットワークシステム処理施設類、インターネットシステム網システム処理施設類、無線システム網システム処理施設類、有線システム網システム処理施設類、衛星放送網システム処理施設類、衛星通信網システム処理施設類、携帯電話通信網システム処理施設類、コンピューターネットシステム網システム処理施設類、ユビキタスコンピューティングネットワークシステム網システム処理施設類、ナビゲーションネットシステム網システム処理施設類、ロボット網システム処理施設類、バーチャルリアリティー網システム処理施設類、サーバー・クライアント方式類網システム処理施設類、GPS(グローバルポジショニングシステム)などを搭載の極めて簡単な例としてのカーなどを 例とする各種車輌類網システム処理施設類、GPS(グローバルポジショニングシステム)などを搭載の極めて簡単な例としての船舶などを 例とする各種乗り物類網システム処理施設類、ブルートゥースネットワーク処理施設類、5感覚情報保持の空間類、   In addition, microprocessor network system processing facilities, computer program network system processing facilities, computer operating system network system processing facilities, office automation operating system network system processing facilities, factory automation operating System network system processing facility, computer application network system processing facility, personal computer graphics network system processing facility, blue truth network system processing facility, microcomputer chip network system processing facility for TRON computer, micro memory chip network system Processing facilities, memory card network system processing facilities, local area network system processing facilities, Internet system Network system processing facilities, wireless system network system processing facilities, cable system network system processing facilities, satellite broadcasting network system processing facilities, satellite communication network system processing facilities, mobile phone communication network system processing facilities, computer network System network system processing facilities, ubiquitous computing network system network system processing facilities, navigation network system network system processing facilities, robot network system processing facilities, virtual reality network system processing facilities, server / client system network system processing Facility, various vehicle network system processing facilities, such as a car as a very simple example equipped with GPS (Global Positioning System), etc. Extremely equipped with GPS (Global Positioning System) Various vehicles such network system processing facilities such that an example of a watercraft as a simple example, a Bluetooth network processing facilities such space such 5 sensory information holding,

さらに、 携帯情報端末機器類、時刻情報端末機器類、その他の家庭用、および、工業用画像情報処理装置類、その他の該画像情報処理装置網類、同画像情報処理システム類、同画像情報処理システム網類、同画像情報処理設備類・同施設類、A5感空間を携える平面画像情報処理網施設店舗類(極めて簡単な数例として、画像情報ネットワーク型漫画喫茶類店鋪網、画像情報ネットワーク型カラオケボックス類店鋪網、画像情報ネットワーク型インターネットカフェ類店鋪網、画像情報ネットワーク型映画類館店舗網、画像情報ネットワーク型金融機関類店舗網、画像情報ネットワーク型コンビニエンス類店舗網、画像情報ネットワーク型アミューズメント類店舗網、画像情報ネットワーク型バー兼用バーチャルリアリティゴルフ場類店舗網)、A5感空間を携える平面画像情報処理網施設類(極めて簡単な数例として、画像情報ネットワーク型教室類網、画像情報ネットワーク型部屋類網、画像情報ネットワーク型図書館類網、画像情報ネットワーク型医療室類網、画像情報ネットワーク型役所室類網)、その他の同システム装置網類・同装置網類、その他の同システム施設店舗網類・同設備店舗網類、および、その他の同システム施設網類・同設備網類がある。   Further, portable information terminal devices, time information terminal devices, other home and industrial image information processing devices, other image information processing device networks, same image information processing systems, same image information processing System network, image information processing equipment and facilities, flat image information processing network facility stores that carry A5 space (as a few simple examples, image information network type cartoon coffee shop store network, image information network type Karaoke box store network, image information network type internet cafe store store network, image information network type movie theater store network, image information network type financial institution store network, image information network type convenience store store network, image information network type amusement Virtual Reality Golf Courses Store Network that is also used by Bars and Image Information Network Bars ), Plane image information processing network facilities that carry A5 sense space (very simple examples are image information network type classroom network, image information network type room network, image information network type library network, image information network type) Medical room network, image information network type government office room network), other system system network / equipment network, other system facility store network / equipment store network, and other system facility There are nets and equipment networks.

『画像情報立体化処理装置』とは、
狭義の意味の装置を指し、(著しく広義の意味の立体画像情報処理装置とはある意味で対極をなす)、前記平面画像情報保持物・同平面画像情報処理装置の両平面画像情報を、自ら単独で立体画像情報に変換できる装置である。
What is “Image Information 3D Processing Device”?
Refers to a device in a narrow sense (which is in a sense opposite to a stereoscopic image information processing device in a broad sense), and the two-dimensional image information of the planar image information holding object / same plane image information processing device It is a device that can be converted into stereoscopic image information independently.

極めて簡単な例として、以下に、各具体的に述べると、
画像情報処理部が、平面画像情報体類・並列体類・並列融合体類・2層以上の積層体類・傾斜体類・曲面体類・交差体類・回転体類・柱体類・多面体類・放射状体類・円盤体類・線対称体類・点対称体類・紙類・布類・フィルムシート類・鏡類・液晶類・ガラス類・シリンドリカルレンズアレイ板類・レンティキュラレンズ類・レンズ類・バララックスバリア物類・プラスチック類・放電灯類・蛍光管類・蛍光体類・発光ダイオード類・光ファイバー類・レーザー光線類・無機有機のエレクトロルミネッセンス素子類・プラズマ類・電気類・電圧類・電界類・電子類・電磁波類・電波類・放電類・磁気類・熱類・紫外線類・粒子線類・霧類・蒸気類・水類・氷類・雪類・雲類・泡類・海水類、衣類、および、5感覚情報保持の空間類の以上述べた全ての中で何れか1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせから構成された画像情報処理部に画像情報処理する、もしくは、処理予定され得る画像情報処理立体化装置類。
As a very simple example, here are the specific details:
The image information processing unit is a plane image information body, parallel body, parallel fusion body, two or more layers, slant body, curved surface body, intersecting body, rotating body, column body, polyhedron , Radial objects, disc bodies, line symmetry bodies, point symmetry bodies, papers, cloths, film sheets, mirrors, liquid crystals, glass, cylindrical lens array plates, lenticular lenses, etc. Lenses, Ballarax barriers, Plastics, Discharge lamps, Fluorescent tubes, Phosphors, Light emitting diodes, Optical fibers, Laser beams, Inorganic organic electroluminescent devices, Plasmas, Electrics, Voltages・ Electric fields, electrons, electromagnetic waves, radio waves, discharges, magnetism, heat, ultraviolet rays, particle beams, fog, steam, water, ice, snow, clouds, bubbles, Sea water, clothing, and space for holding 5 sensory information The image information processing unit can be processed or scheduled to be processed by an image information processing unit composed of any one or more of the above, various combinations of the same or more, or similar various overlays. Equipment.

さらに、衣類、眼鏡類、双眼鏡類、望遠鏡類、顕微鏡類、拡大鏡類、カメラ類、ディジタルカメラ類、ビデオカメラ類、テレビジョンカメラ類、アクチビジョンカメラ類、ハープカメラ類、CCD(電荷結合素子)カメラ類、航空撮影カメラ類、医療用カメラ類、医療手術機器一体システム処理端末施設類、ローカルエリアネットワークシステム処理端末施設類、インターネット利用医療手術機器一体システム処理端末施設類、接触類・非接触類・有線類、および、無線類の内、1以上と1以上の様々な組み合わせ、もしくは、同重ね合わせ利用の医療用システム処理端末施設類、映画撮影用カメラ類、映写機類、投影機類、映画用画像情報投影システム処理端末装置類、カメラ類一体型映画用処理装置類、映画館システム端末類、映画システム端末施設類、ドーム形映画端末施設類、電子辞書類、モニター類、ビデオモニター類、携帯用モニター類、チューナー類、印刷機器類、複写機器類、スキャナー機器類、レコーダー機器類、プレーヤー機器類、サーバー機器類、ルーター機器類、ファクシミリ機器類、ロボット類、ロボット機器類、バーチャルリアリティー機器類、GPS(グローバルポジショニングシステム)などを搭載の極めて簡単な例としてのカーなどを 例とする各種端末車輌類、GPS(グローバルポジショニングシステム)などを搭載の極めて簡単な例としての船舶などを 例とする各種端末乗り物類。   In addition, clothing, glasses, binoculars, telescopes, microscopes, magnifiers, cameras, digital cameras, video cameras, television cameras, activision cameras, harp cameras, CCDs (charge coupled devices) ) Cameras, aerial photography cameras, medical cameras, medical surgical equipment integrated system processing terminal facilities, local area network system processing terminal facilities, Internet-based medical surgical equipment integrated system processing terminal facilities, contacts and non-contact Of wireless systems, one or more and one or more various combinations, or medical system processing terminal facilities using the same overlay, movie shooting cameras, projectors, projectors, Image information projection system processing terminal equipment for movies, camera-integrated movie processing equipment, cinema system terminals, movie system Terminal facilities, dome-shaped movie terminal facilities, electronic dictionaries, monitors, video monitors, portable monitors, tuners, printing equipment, copying equipment, scanner equipment, recorder equipment, player equipment , Various types of terminal vehicles such as cars, etc., which are equipped with server equipment, router equipment, facsimile equipment, robots, robot equipment, virtual reality equipment, GPS (global positioning system), etc. Various terminal vehicles, such as ships, which are very simple examples equipped with GPS (Global Positioning System).

さらに、電光看板類、回転看板類、計測機器類、家庭用電気機器類、音響機器類、通信機器類、医療機器類、医療用CT(コンピュータトモグラフィー)スキャン機器類、医療用PET(陽電子放出断層撮影)スキャン機器類、X線撮影処理装置類、写真フィルム処理類、コンパクトディスク処理装置類、ディジタル多用途ディスク処理装置類、ブルーレイディスク処理装置類、磁気磁性体処理装置類、光磁気磁性体処理装置類、光波長ディスク処理装置類、ビデオテープ処理装置類、ディジタルテープ処理装置類、ディジタルディスク処理装置類。   In addition, electronic signboards, rotating signboards, measuring instruments, household electrical equipment, acoustic equipment, communication equipment, medical equipment, medical CT (computer tomography) scanning equipment, medical PET (positron emission tomography) Imaging) Scanning equipment, X-ray imaging processing equipment, photographic film processing, compact disc processing equipment, digital versatile disc processing equipment, Blu-ray disc processing equipment, magnetic magnetic material processing equipment, magneto-optical magnetic material processing Devices, optical wavelength disk processing devices, video tape processing devices, digital tape processing devices, digital disk processing devices.

さらに、映画用映像情報処理装置類、家庭ゲーム処理装置類、業務用ゲーム処理装置類、マイクロフィルム処理装置類、端末機器処理装置類、無線・有線のテレビジョン放送番組処理装置類、ランダムアクセスメモリー処理装置類、リードオンリィーメモリー処理装置類、セントラルプロセッシングユニィト処理装置類。   Furthermore, movie image information processing devices, home game processing devices, arcade game processing devices, microfilm processing devices, terminal device processing devices, wireless and wired television broadcast program processing devices, random access memory Processing equipment, read-only memory processing equipment, central processing unit processing equipment.

さらに、マイクロプロセッサ処理装置類、コンピューター用プログラム処理装置類、コンピューター用オペレ−ティング処理装置類、オフィスオートメイションオペレ−ティング処理施設類、ファクトリーオートメイションオペレ−ティング処理施設類、コンピューター用アプリケーション処理装置類、コンピュータグラフィクス処理装置類処理装置類、ブルートゥルース処理装置類、トロンコンピューター用マイクロコンピューターチップ処理装置類、マイクロメモリチップ処理装置類、メモリーカード処理装置類、ローカルエリアネットワークシステム処理端末施設類、インターネットシステム端末機器処理装置類、無線機器処理端末装置類、有線機器処理端末装置類、衛星放送機器処理端末装置類、衛星通信機器処理端末装置類、コンピューターネット機器処理端末装置類、ユビキタスネット機器処理端末装置類、ナビゲーションネットシステム機器処理端末装置類、ロボット処理端末施設類、バーチャルリアリティー処理端末装置類、サーバー・クライアント方式などによるサーバー処理端末施設類、ブルートゥースネットワーク処理端末装置類、および、5感覚情報保持の空間端末施設類。   Furthermore, microprocessor processing devices, computer program processing devices, computer operating processing devices, office automation operating processing facilities, factory automation operating processing facilities, computer application processing devices , Computer graphics processing equipment processing equipment, blue truth processing equipment, microcomputer chip processing equipment for TRON computers, micro memory chip processing equipment, memory card processing equipment, local area network system processing terminal facilities, Internet system Terminal equipment processing equipment, wireless equipment processing terminal equipment, wired equipment processing terminal equipment, satellite broadcasting equipment processing terminal equipment, satellite communication equipment processing terminal equipment, Computer network processing terminal devices, ubiquitous network device processing terminal devices, navigation network system device processing terminal devices, robot processing terminal facilities, virtual reality processing terminal devices, server processing terminal facilities using server / client methods, Bluetooth, etc. Network processing terminal devices, and space terminal facilities that hold five sensory information.

さらに、携帯情報端末機器類、時刻情報端末機器類、その他の家庭用、および、工業用 各画像情報立体化処理装置類、その他の画像情報立体化処理装置類、A5感空間を携える画像情報立体化処理施設店舗類(極めて簡単な数例として、画像情報提供の漫画喫茶類店舗、画像情報提供のカラオケボックス類店舗、画像情報提供のインターネットカフェ類店舗、映画類館店舗、画像情報提供の金融機関類店舗、画像情報提供のコンビニエンス類店舗、画像情報提供のアミューズメント類店舗、画像情報提供のバー兼用バーチャルリアリティゴルフ場類店舗)、A5感空間を携える画像情報立体化処理施設類(極めて簡単な数例として、画像情報提供の教室類、画像情報提供の部屋類、画像情報提供の図書館室類、画像情報提供の医療室類、画像情報提供の役所室類)、その他の立体化システム処理網端末装置類、その他の立体画像情報システム処理網端末施設店舗類、その他の立体画像情報システム処理網端末施設類、その他の立体化システム処理装置類、その他の立体化システム処理施設店舗類、および、その他の立体化システム処理施設類。 Further, portable information terminal devices, time information terminal devices, other household and industrial image information three-dimensional processing devices, other image information three-dimensional processing devices, and image information three-dimensional images carrying A5 sense space. Processing facility stores (e.g., very simple examples: cartoon cafe stores that provide image information, karaoke boxes stores that provide image information, Internet cafe stores that provide image information, movie theater stores, finance for providing image information) Institution stores, convenience stores that provide image information, amusement stores that provide image information, virtual reality golf course stores that also serve as image information), and three-dimensional image information processing facilities with A5 sense space (very simple Some examples include classrooms that provide image information, rooms that provide image information, library rooms that provide image information, medical rooms that provide image information, and images. Information providing office rooms), other 3D system processing network terminal equipment, other 3D image information system processing network terminal facility stores, other 3D image information system processing network terminal facilities, other 3D system processing Equipment, other three-dimensional system processing facility stores, and other three-dimensional system processing facilities.

『空間深度画像情報』とは、
融合画像情報において、融合した両左右端は立体感が高いが中央部分に近づくに連れ、立体感が、無くなり中央部ではゼロになる。この様な「融合画像情報空間上の想定表示面よりも奥まった空間」。
What is "space depth image information"?
In the fused image information, the fused left and right edges have a high stereoscopic effect, but as they approach the central portion, the stereoscopic effect disappears and becomes zero at the central portion. Such a “space deeper than the assumed display surface in the fusion image information space”.

従って、画像情報を重ねて表示するとき、もしくは、組み合わせて表示するとき、「空間深度画像情報」を背景・ベースにした「空間深度画像情報」「空間突出度画像情報」、および、「空間歪性度画像情報」の1以上とそれらの様々な組み合わせが、生まれてくる。 Therefore, when displaying the image information in a superimposed manner or in combination, the “spatial depth image information”, “spatial depth image information”, and “spatial distortion” based on the “spatial depth image information” as the background / base. One or more of “sexuality image information” and various combinations thereof are born.

『空間突出度画像情報』とは、
物が遠く後方から手前前方に近づく・飛んでくる場面(極めて簡単な1例として爆発場面状況)映像情報では、空間が遠方から前方へ成長する。この様な「融合画像情報 空間上の想定表示面よりも飛び出して来る空間」。
“Spatial protrusion image information”
In a scene where an object is approaching from the rear to the front and flying away from the front (explosive scene situation as a very simple example), the space grows from far away to the front. Such a “space that pops out from the assumed display surface in the fusion image information space”.

従って、画像情報を重ねて表示するとき、もしくは、組み合わせて表示するとき、「空間深度画像情報」を背景・ベースにした「空間深度画像情報」「空間突出度画像情報」「空間歪性度画像情報」の1以上とそれらの様々な組み合わせが、生まれてくる。 Therefore, when displaying the image information in a superimposed manner or in combination, the “spatial depth image information”, “spatial protrusion image information”, “spatial distortion image” based on the “spatial depth image information” as the background One or more of “information” and various combinations thereof are born.

『空間歪性度画像情報』とは、
水平・垂直移動前の空間認識感覚と同移動中の速さ・方向性から来る空間認識感覚上の
歪み(移動方向遠方は空間がゆっくり・小さく・くっきり感じられ移動方向手前は空間が速く・大きく・ぼんやり感じる、空間の歪み性。)この様な「融合画像情報 空間上の想定表示面で、歪んで見える空間」。
“Spatial distortion image information”
Distortion in the space recognition sensation that comes from the speed and directionality during the movement as well as the space recognition sensation before the horizontal / vertical movement (the distance in the movement direction is slow, small, and clear, and the space before the movement direction is fast and large・ Spacious space distortion.) This kind of “space that looks distorted on the assumed display surface in the fusion image information space”.

従って、画像情報を重ねて表示するとき、もしくは、組み合わせて表示するとき、「空間深度画像情報」を背景・ベースにした「空間深度画像情報」「空間突出度画像情報」「空間歪性度画像情報」の1以上とそれらの様々な組み合わせが、生まれてくる。
Therefore, when displaying the image information in a superimposed manner or in combination, the “spatial depth image information”, “spatial protrusion image information”, “spatial distortion image” based on the “spatial depth image information” as the background One or more of “information” and various combinations thereof are born.

技術分野が、広範囲に渡る可能性があり、また、全ての技術分野が、核となる平面画像情報を 実在空間内で、立体画像情報として、再現する技術分野と、強く結びついているため、核となる前記技術分野に 限って、論述したい。 There is a possibility that the technical field covers a wide range, and all the technical fields are strongly linked with the technical field that reproduces the core planar image information as stereoscopic image information in the real space. I would like to discuss only the above technical fields.

従来の技術
従来の技術には、(1)両眼視差(2)特許文献1「立体画像情報表示システム」(3)特許文献2「立体画像情報生成方法」(4) 特許文献3「1つの画像情報で立体感を得る画像情報観察鏡」(5)特許文献4「立体画像情報呈示装置」(6)特許文献5「快適な知覚深度の立体画像情報」、
Prior Art Prior art includes (1) binocular parallax (2) Patent Document 1 “stereoscopic image information display system” (3) Patent literature 2 “stereoscopic image information generation method” (4) Patent literature 3 “one” "Image information observation mirror for obtaining a stereoscopic effect with image information" (5) Patent document 4 "stereoscopic image information presentation device" (6) Patent document 5 "stereoscopic image information of comfortable perceived depth",

さらに、(7) 特許文献6「立体画像情報表示システム」(8) プルフリッツヒ効果(9) バリフォーカルミラー方式(10) 特許文献7「平面画像情報を立体画像情報昇華する処理関連物および該製造方法」(11) 特許文献8「立体表示装置」(12) ホログラフィー(13)特許文献9「立体画像情報プリンタおよび立体画像情報の作成方法」(14)特許文献10「立体画像情報記憶媒体用ホルダの支持スタンド」(15)特許文献11「平面画像情報の5感覚情報の立体化画像情報関連物」がある。   Further, (7) Patent Document 6 “stereoscopic image information display system” (8) Pulfritzhi effect (9) Varifocal mirror system (10) Patent Document 7 “Processing related substance for sublimating planar image information to stereoscopic image information and manufacturing method thereof (11) Patent document 8 “stereoscopic display device” (12) Holography (13) Patent document 9 “stereoscopic image information printer and method of creating stereo image information” (14) Patent document 10 “stereoscopic image information storage medium holder There is "support stand" (15) Patent Document 11 "Three-dimensional image information related substance of five sense information of planar image information".

(1)は、文献「三次元画像情報工学」大越孝敬著、によると「注視している物体表面の点からの光は、網膜の中心(中心嵩)に結像する。しかし、注視点以外の点からの光は、<対応する位置>に結像せず、両眼像がずれて見える。」この網膜上の左右のずれにより立体感が得られ、最もよく使われて高い立体感視が得られ、眼鏡か、偏光か、色・空間当たりの解像低下か、裸眼では両眼瞳孔間隔の画像情報内でしか融合(両眼融合画像情報方式)しない、の何れかが、伴ない、左右眼球用画像情報が、必ず必要とする。   (1), according to the document “Three Dimensional Image Information Engineering” written by Takashi Ohkoshi, “The light from the point on the surface of the object being focused forms an image at the center (center volume) of the retina. The light from this point does not form the image at the <corresponding position>, and the binocular image appears to be shifted. ”The right and left shift on the retina gives a stereoscopic effect, and is the most commonly used high stereoscopic effect. Either with glasses, with polarized light, with reduced resolution per color / space, or with the naked eye, which fuses only within the image information of the binocular pupil spacing (binocular fusion image information system). The image information for the left and right eyeballs is absolutely necessary.

(2) は、平面画像情報からの動画から動く個々の物体を左右に配置して両眼視差に似た左右視差のある2画面により立体感を得るものであり、シャッタ式眼鏡を必要とする。 (2) is to obtain a stereoscopic effect with two screens having left and right parallax similar to binocular parallax by arranging individual objects moving from a plane image information on the left and right, and requires shutter glasses. .

(3) は、平面画像情報の静止画から両眼視差画像情報を作るために個々の抽出画像情報を採り、カードボーディング現象を避けるため、前記画像情報を2部以上に分解し各部の水平・垂直に各移動率を変えることにより原画像情報とは視差のある2画面により等距離より高い立体感前記画像情報を得る。(視差生成のためシャッタ式眼鏡を必要とすると思われる) (3) takes individual extracted image information in order to create binocular parallax image information from a still image of planar image information, and in order to avoid cardboarding, the image information is decomposed into two or more parts and the horizontal / By changing each movement rate vertically, the stereoscopic image higher than the equidistance is obtained by two screens having parallax with the original image information. (I think you need shutter glasses for parallax generation)

(4) は平面画像情報をプリズムにより左右に位置をずらすことにより2枚の位置差画像情報を作りこの2画面を1画面で見ようとする輻輳融合画像情報により立体感を得て、プリズム眼鏡を必要とする。  In (4), two-dimensional difference image information is created by shifting the position of the plane image information to the left and right by a prism, and a stereoscopic effect is obtained from the convergence fused image information for viewing these two screens on one screen. I need.

(5) は、平面画像情報をスキャンコンバーターにより左右に位置をずらすことにより2枚の位置差画像情報を作りこの2画面により立体感を得るものである。(シャッタ式眼鏡を必要とすると思われる) In (5), two-position difference image information is created by shifting the position of the plane image information to the left and right by a scan converter, and a stereoscopic effect is obtained by these two screens. (I think you need shutter glasses)

(6) は、撮映時の場面状況環境が提供している深度と表示面が提供している最大知覚深度と各人の目の間隔を考慮した観察視聴者が感じる同知覚深度を一致させることによりストレスの無い快適な立体感を得るもので、そのための計算デバイスも提示されている。(眼鏡か、偏光か、が必ず伴なうと思われる) (6) is to match the depth perceived by the scene situation environment at the time of shooting, the maximum perceived depth provided by the display surface, and the perceived depth perceived by the observation viewer considering the distance between each person's eyes. Thus, a comfortable three-dimensional feeling without stress is obtained, and a calculation device for that purpose is also presented. (It seems to be accompanied by glasses or polarized light)

(7) は、約15度の角度差から撮影された左右の2画像情報を1ディスプレイ面に交互に58駒/秒で時分割投射し眼鏡無し偏光無し解像低下無しで立体感を得るもので、両眼融合画像情報方式と思われる。  (7) is to obtain a three-dimensional effect without glasses without polarization and resolution reduction by alternately time-dividing the left and right image information taken from an angle difference of about 15 degrees onto one display surface at 58 frames / second. Therefore, it seems to be a binocular fusion image information system.

(8) は、平面画像情報の左右に動く動画を片目のみのサングラスで見た濃度差
から、立体感を得るものでサングラス眼鏡を必要とする。
(8) is a technique that obtains a three-dimensional effect from the difference in density when a moving image that moves to the left and right of the planar image information is viewed with sunglasses with only one eye, and requires sunglasses glasses.

(9) は、フィルム状の鏡と平面画像情報表示の画像情報を同期させて振動させ同鏡の反射光から立体感を得るもので眼鏡無し偏光無し解像低下無しで立体感を得るものである。 (9) is to obtain a stereoscopic effect from the reflected light of the mirror by synchronizing and vibrating the film-like mirror and the image information of the planar image information display. is there.

(10) は、積層体・空間差異認識・融合・両眼融合画像情報より高い立体感に言及している。眼鏡無し偏光無し解像低下なしで、平面画像情報から裸眼により、立体感を得るものである。 (10) refers to a higher stereoscopic effect than the layered body, spatial difference recognition, fusion, and binocular fusion image information. A stereoscopic effect is obtained from the planar image information with the naked eye without reducing the resolution without the polarization without glasses.

同発明の文献手続補正書によるとP26・27に「該積層体では、前記2つの画像情報5・6を2重写しの1画像情報として捕えることができない為、1つの基本画像情報が2つの情報を発信していることとして捕えることになる、つまり、横長の画像情報6と横に圧縮された画像情報5の2つの画像情報である。ここで、画像情報5に注視すると画像情報6は注視点以外の左右にずれた情報として捕えられ、画像情報6に注視すると画像情報5は注視点以外の左右にずれた情報として捕えられることになり、画像情報全体としては、両眼視差に似た立体視の効果を生むことになる。・・・中略・・・結果、該積層体では、基本画像情報全体が立体深度10を備えた空間画像情報として捕えられ視中枢4へ送られることになる。・・・中略・・・該空間画像情報を助けとして個々の画像情報と該隣接画像情報の伸縮(主に横方向が顕著である)作用が働き According to the document procedure amendment of the same invention, P26 and 27 indicate that “the layered image cannot capture the two image information 5 and 6 as one image information of a double copy. That is, it is captured as transmitting two pieces of information, that is, two pieces of image information, that is, the horizontally long image information 6 and the horizontally compressed image information 5. When the image information 5 is observed here, the image information 6 Is captured as left and right information other than the gazing point, and when the image information 6 is gazed, the image information 5 is captured as left and right information other than the gazing point. This produces a similar stereoscopic effect .... Omitted ... As a result, in this laminate, the entire basic image information is captured as spatial image information having a stereoscopic depth of 10 and sent to the visual center 4. Omitted ... - stretching of the individual image information and the neighboring image information spatial image information as an aid (mainly horizontal direction is conspicuous) action works

(該空間画像情報が無い場合は単なる平面画像情報錯覚画像情報として処理されると思われる。) (If there is no such spatial image information, it is considered that it is processed as simple plane image information illusion image information.)

自然界と一致した個々の空間画像情報配置に微調整され、又、画像情報全体も矛盾の無い中間の大きさに変えられることにより該空間画像情報が中間大の立体空間画像情報として再形成され視中枢内で立体視できることになると思われる。 Fine adjustments are made to the arrangement of individual spatial image information that matches the natural world, and the entire image information is also changed to an intermediate size that is consistent with each other. It will be possible to view stereoscopically in the center.

又、自然界と一致した画像情報伸縮調整作用は、視中枢内に蓄積されている先天・後天の膨大な画像情報記憶情報群と該個々の画像情報とを検索照合しそれと一致するよう
伸縮調整する連携機能が存在していると思われる。」と記載されている。
In addition, the image information expansion / contraction adjustment function that matches the natural world searches and collates a huge group of congenital and acquired image information stored in the visual center and the individual image information, and adjusts the expansion / contraction to match it. There seems to be a linkage function. Is described.

(11) は、被表示物をn枚に均等輪切りした各平面画像情報を積層されドットマトリックス状に配置された電極を持つn枚の高分子分散液晶板に各輪切り画像情報を正順表示するように印加し透明部分と白濁部分で立体感を得るもので、眼鏡無し偏光無し白濁色の焦点移動可能な立体感を得るものである。   (11) displays each piece of cut image information in normal order on n pieces of polymer-dispersed liquid crystal plates having electrodes arranged in a dot matrix by laminating each piece of flat image information obtained by equally cutting the display object into n pieces. In this way, a stereoscopic effect is obtained at the transparent portion and the cloudy portion, and a stereoscopic effect capable of moving the focal point of the non-glasses-free polarized white cloudy color is obtained.

(12) は、辞典「広辞苑」新村出編によると「物体にレーザー光を当て、そこから、得られる光と、もとの光との干渉パターンを感光板に撮影・記録し、これに同様の光を当てて物体の像を立体的に再現する方法」であり眼鏡無し偏光無しレーザー光色の焦点移動で立体感を得るものである。   (12), according to the dictionary “Kojien”, edited by Shinmura, “Laser is irradiated with laser light, and the interference pattern between the resulting light and the original light is photographed and recorded on the photosensitive plate. In other words, a three-dimensional effect is obtained by moving the focus of laser light without glasses without polarization.

(13) は、両眼視差に基づく左右画像情報をバララックスバリア方式で見える用交互に配置しインクジェットプリンタで印刷し大きい画像情報が安価で得られ眼鏡無し偏光無し解像低下で立体感を得るものである。   In (13), left and right image information based on binocular parallax is alternately arranged for viewing by a Barrax barrier method and printed by an ink jet printer to obtain large image information at low cost, and a stereoscopic effect can be obtained by reducing the resolution without polarization without glasses. Is.

(14) は、傾斜可能なスタンドと回転可能なホルダを持つレンチキュラーレンズシートに(13) 同様1レンズに左右1組でシリンドリカル凸レンズ・アレイ板で感光されたフィルムを貼り裏から投光して立体視するものであり、一般にレンチキュラーレンズシートは安価で眼鏡無し偏光無し解像低下、左右の画像情報が逆転し画像情報が飛ぶ場所を持って立体感を得るものである。   (14) A lenticular lens sheet having an inclinable stand and a rotatable holder. (13) Similarly, a film is exposed from a cylindrical convex lens array plate with one set of left and right on one lens and projected from the back. In general, a lenticular lens sheet is inexpensive, reduces the resolution without polarization without spectacles, and has a place where the image information flies by reversing the left and right image information to obtain a stereoscopic effect.

(15) は、積層体・空間差異認識・融合・両眼融合画像情報より高い立体感に言及している。 眼鏡無し、偏光無し、解像低下なしで、平面画像情報から裸眼により、立体感を得るものである。 (15) refers to a higher stereoscopic effect than the layered body, spatial difference recognition, fusion, and binocular fusion image information. A stereoscopic effect is obtained from the planar image information with the naked eye without glasses, without polarization, and without a reduction in resolution.

下記に、前記参照した特許文献の詳細な番号を記載した。
特開平8ー251628 号 公報 特開平7ー239951 号 公報 特開平5ー264929 号 公報 特開平6ー169475 号 公報 特開2001ー148869 号 公報 特開平8ー251628 号 公報 特開平8ー101469 号 公報 特開平8ー280044 号 公報 特開2000ー180996 号 公報 特開平10ー282594 号 公報 特開2004ー91304 号 公報
The detailed numbers of the referenced patent documents are listed below.
JP-A-8-251628 Japanese Patent Laid-Open No. 7-239951 JP-A-5-264929 JP-A-6-169475 Japanese Patent Laid-Open No. 2001-148869 JP-A-8-251628 JP-A-8-101469 JP-A-8-280044 JP 2000-180996 A JP-A-10-282594 JP 2004-91304 A

以上述べた様に(1)(2)(3)(5)(13)(14) の両眼視差原理に基づく(平面画像情報からの擬似視差も含む)方法は、「2つの網膜中心」のため「左右別眼球画像情報」を必要とし、各画像情報を各対応した眼球に送り込むために、何らかの眼鏡(液晶シャッタ・偏光フィルター)同偏光(レンチキュラーレンズ、シリンドリカル凸レンズ・アレイ板、蝿の目レンズ板)色・空間当たりの解像低下(バララックスバリア、レンチキュラーレンズ、シリンドリカル凸レンズ・アレイ板、蝿の目レンズ板)を伴ない、平面画像情報から擬似視差を生成する場合は、背景画像情報を含まない原画像情報抽出・空き背景画像情報生成補間行為を伴ない、裸眼による立体視が、不可能となる構造的矛盾を、内在している。   As described above, the method based on the binocular parallax principle of (1), (2), (3), (5), (13), and (14) (including pseudo-parallax from planar image information) is “two retinal centers”. Therefore, in order to send each image information to each corresponding eyeball, some glasses (liquid crystal shutter / polarizing filter) same polarization (lenticular lens, cylindrical convex lens / array plate, eyelid) Lens plate) Background image information when generating pseudo parallax from planar image information with reduced resolution per color / space (ballarax barrier, lenticular lens, cylindrical convex lens / array plate, eyelet lens plate) There is an inherent structural contradiction that makes it impossible to perform stereoscopic viewing with the naked eye, with the original image information extraction and the empty background image information generation interpolation operation not included.

(7) の両眼融合画像情報は2つの左右画像情報(平均瞳孔間差以内に限定)が
必要であり、平面画像情報が立体視できない点と左右15度以上の視差以内に
限られる(実用的大きな立体感が得られない)点が問題である。
The binocular fusion image information (7) requires two pieces of left and right image information (limited within the difference between the average pupils), and is limited to a point where the planar image information cannot be stereoscopically viewed and within a parallax of 15 degrees or more left and right (practical use) The problem is that a large stereoscopic effect cannot be obtained).

(11) (12) は、焦点移動・単眼運動視差が得られるが、物体の多くの画像情報が必要となり3原色が得られない点、動画に対応し難い点、平面画像情報は立体視できないため対応ソフトが極端に少ない点が問題である。(4) は(6) と組み合わせ平面画像情報による快適な立体画像情報は得られるが輻輳融合画像情報以上の立体感が得られない点で問題がある。   (11) In (12), focus movement and monocular motion parallax can be obtained, but a lot of image information of the object is required and three primary colors cannot be obtained, it is difficult to deal with moving images, and planar image information cannot be viewed stereoscopically. Therefore, the problem is that the number of compatible software is extremely small. (4) has a problem in that although comfortable stereoscopic image information based on combined plane image information can be obtained with (6), a stereoscopic effect higher than the convergence fused image information cannot be obtained.

(8) は、平面画像情報が立体視できるが眼鏡を必要とし左右1方向の動画限定であること(9) も平面画像情報を立体視できるが充分な立体画像情報が得られない点で問題がある。(10)(15) は、平面画像情報が裸眼に依り立体視でき実用的立体感も得られるため、 現行のプログレッシブ方式60駒/秒放送で立体視できる点で極めて現実味がある。   (8) The planar image information can be stereoscopically viewed, but glasses are necessary and the moving image is limited to one left and right direction. (9) The planar image information can be stereoscopically viewed but sufficient stereoscopic image information cannot be obtained. There is. (10) and (15) are very realistic in that the planar image information can be stereoscopically viewed with the naked eye and a practical stereoscopic effect can be obtained, so that the current progressive 60 frames / second broadcast can be stereoscopically viewed.

(10)は、両形融合画像情報による「空間深度画像情報」のみ実現でき、画像情報表示面より、手前の空間に飛び出す 「空間突出度画像情報」、「空間歪性度画像情報」が、全く、得られないことが、大きな問題である。 (10) can realize only “spatial depth image information” based on the bimodal fusion image information, and “spatial protrusion degree image information” and “spatial distortion degree image information” popping out from the image information display surface to the front space, It is a big problem that it cannot be obtained at all.

(15)は、両組融合画像情報、両形組融合画像情報により、「空間深度画像情報」、「空間突出度画像情報」、および、「空間歪性度画像情報」が、得られている。 In (15), “spatial depth image information”, “spatial protrusion degree image information”, and “spatial distortion degree image information” are obtained by the both sets fusion image information and the both forms fusion image information. .

そこで、(15) の両組融合画像情報の大問題点を中心に、下に、列挙すると、   Therefore, focusing on the major problems of both sets of fusion image information of (15), listed below,

イ、「映像情報内容から判断できる空間提示」で、「空間突出度画像情報」の画像情報表現ができ、同突出度度合いを変えることにより、「空間深度画像情報」へ移行し、同深度度合いも可変できるが、
「空間突出度画像情報」の画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記各度合い可変が、できない点が、大問題である。
B) “Space presentation that can be judged from video information contents” can express image information of “spatial protrusion degree image information”, and by changing the degree of protrusion degree, it moves to “spatial depth image information” Is variable,
The major problem is that there is a limit to the image information representation of the “spatial projection image information”, and the binocular parallax image information cannot be changed in each degree in the level area that pops out to the front where possible.

ロ、「映像情報内容から判断できる空間提示」で、「空間歪性度画像情報」の画像情報表現ができ、同歪性度度合いを可変できるが、
「空間歪性度画像情報」の画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記表現と前記可変が、できない点が、大問題である。
B) “Spatial presentation that can be judged from video information content” can express image information of “spatial distortion image information” and the degree of distortion can be varied.
The major problem is that there is a limit to the image information representation of “spatial distortion image information”, and the binocular parallax image information cannot be changed and expressed in the level region that pops out to the point where it is possible.

ハ、「映像情報内容から判断できる空間提示」で、「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の1以上、同1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせからなる 斜め奥からの・斜め奥への、周り込みの各空間移動・空間生成が表現でき、各度合い画像情報も可変でき、全ての度合い画像情報を0にすると平面画像情報空間である平面画像情報に戻り、平面画像情報を持つ画像情報関連物との互換性も併せ持つが、
「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の各画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記表現、および、前記互換性が、できない点が、大問題である。
C. “Space presentation that can be judged from the contents of video information”, one or more of “spatial depth image information”, “spatial protrusion image information”, and “spatial distortion image information”, or a combination of one or more of the above, or , Which consists of various similar overlays, can represent each spatial movement and spatial generation from the diagonal back to the diagonal back, can also vary the degree image information, and if all the degree image information is 0, the plane Returning to the plane image information that is the image information space, it also has compatibility with image information related objects with plane image information,
There is a limit to the image information representation of “spatial depth image information”, “spatial projection image information”, and “spatial distortion image information”, and binocular parallax image information is displayed in a level region that pops out to the nearest possible level. The point that the said expression and the said compatibility cannot be performed is a big problem.

ニ、同理由とは逆に、「映像情報内容から判断できる空間提示」で、「空間深度画像情報」から生じる不必要な効果を取り除ける(極めて簡単な1例として画面に滑り落ちそうになる不安感を与える点。)が、
「空間深度画像情報」の画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での 前記取り除けることが、できない点が、大問題である。
D. Contrary to the same reason, “Space presentation that can be judged from the contents of video information” can remove unnecessary effects that arise from “Spatial depth image information”. That gives a feeling.)
The major problem is that there is a limit to the image information representation of “spatial depth image information” and the binocular parallax image information cannot be removed in the level region that pops out to the point where it is possible.

ホ、前記、イ・ロ・ハ・ニにおける空間画像情報表現を行う要因を、「時間軸上の画像情報との画像情報比較」以外の「時間軸上の音情報との比較」・「該音情報比較と該画像情報比較の複合」を加え、「映像情報内容から判断できる空間画像情報提示」をより観察視聴者心情に合わせた「場面状況を考える高度な立体画像情報処理装置」として提案できるが、
「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の各画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記提案が、できない点が、大問題である。
The factors that express spatial image information in Lee, Ro, Ha, Ni are described in “Comparison with sound information on the time axis” other than “Comparison with image information on the time axis”, “ "Composite sound information and image information comparison" was added, and "spatial image information presentation that can be judged from video information contents" was proposed as an "advanced stereoscopic image information processing device that considers the situation of the scene", which more closely matches the viewer's feelings Yes, but
There is a limit to the image information representation of “spatial depth image information”, “spatial projection image information”, and “spatial distortion image information”, and binocular parallax image information is displayed in a level region that pops out to the nearest possible level. The point that the proposal cannot be made is a big problem.

へ、両形融合画像情報では、既存の平面画像情報表示面では、画像情報全体が小さくならざるをえないが、両組融合画像情報、両形組融合画像情報では同形で「空間突出度画像情報」の画像情報が得られるため、既存の平面画像情報処理設備上で同形状大の飛び出す立体画像情報が得られる、(簡易な極めて簡単な1例として、「60駒/秒画像情報処理のテレビジョン」・「HD(ハイディフィニション)24等のハイビジョンカメラ類でディジタル撮影しコンピュータ画像情報合成された映像情報を放映できるディジタル映像情報装置を持つ映画施設」における表示画面の大きさから来る迫力を、失うこと無く、飛び出す立体映像情報が実現できる。)、
が、「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の各画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での 前記各効果を得られることが、できない点が、大問題である。
On the other hand, in the double-shaped fusion image information, on the existing plane image information display surface, the entire image information has to be small, but the double-shaped fusion image information and the double-shaped fusion image information have the same shape as the “space projection degree image”. Since the image information of “information” is obtained, stereoscopic image information of the same shape can be obtained on an existing planar image information processing facility. (As a simple and extremely simple example, “60 frames / second image information processing” The power that comes from the size of the display screen in "TV" and "Movie facility with digital video information device capable of broadcasting video information synthesized by computer image information taken with high definition cameras such as HD (High Definition) 24" 3D video information can be realized without losing
However, there is a limit to the image information representation of “spatial depth image information”, “spatial projection image information”, and “spatial distortion image information”, and the binocular parallax image information is a level area that pops out to the nearest possible level It is a big problem that the above-mentioned effects cannot be obtained.

ト、空間回転体・同空間対称配置体での画像情報表示を正面以外の多方向から観察することにおいて、画像情報の歪みが少なく表示面を小さくでき、回転体の負担が少なく、また、飛び出す画像情報も得られる、
が、「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の各画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記各効果を得られることが、できない点が、大問題である。
G. Observing the image information display on the space rotating body / same space symmetrical arrangement from multiple directions other than the front, the distortion of the image information is small, the display surface can be reduced, the burden on the rotating body is small, and it pops out. Image information can also be obtained,
However, there is a limit to the image information representation of “spatial depth image information”, “spatial projection image information”, and “spatial distortion image information”, and the binocular parallax image information is a level region that pops out to the nearest possible level The point that the above-mentioned effects cannot be obtained is a serious problem.

チ、時分割を伴わない両形融合画像情報は、左右大・小の画像情報差が激しいため、同差から生じる眼球の疲労感が大きかったが、両形組融合画像情報では、同差が減少し疲労感を軽減でき、両組融合画像情報では、左右ほぼ同外形のため同差が少なく疲労感を激減できる、
が、「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の各画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記各効果を得られることが、できない点が、大問題である。
H, the double-shaped fusion image information without time division has a large difference in image information between left and right, large and small, and the eyeball fatigue resulting from the difference is large. It can reduce the feeling of fatigue and reduce the feeling of fatigue because both sets of fused image information have almost the same left and right contours and there is little difference.
However, there is a limit to the image information representation of “spatial depth image information”, “spatial projection image information”, and “spatial distortion image information”, and the binocular parallax image information is a level region that pops out to the nearest possible level The point that the above-mentioned effects cannot be obtained is a serious problem.

リ、焦点移動を伴う表示装置では、焦点移動が できる距離が大きくなるほど 奥行きも大きくなるが、前記特許文献11明細書図面記載図24の様な、1画素から、構成される表示装置であれば、奥行きの拡大を、鏡面反射の多重反射機能で、回避できるため、日本の様な、狭い居住空間でも、薄型で、焦点移動が、できるものが、提供される、可能性を生み出している、
が、「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の各画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記各効果を得られることが、できない点が、大問題である。
In a display device that involves focal movement, the depth increases as the distance that the focal movement can be increased. However, as long as the display device is configured from one pixel as shown in FIG. Since the expansion of depth can be avoided with the multiple reflection function of specular reflection, even in a narrow living space like Japan, a thing that is thin and can move the focus is created, creating the possibility,
However, there is a limit to the image information representation of “spatial depth image information”, “spatial projection image information”, and “spatial distortion image information”, and the binocular parallax image information is a level region that pops out to the nearest possible level The point that the above-mentioned effects cannot be obtained is a serious problem.

また、ハーフミラーを使用するため、外光反射が、著しいことも、大問題である。 In addition, since a half mirror is used, it is a big problem that external light reflection is remarkable.

また、「可能性を生み出している」だけでは、実現性に乏しいことを、該発明申請者自らが、認めていることになり、既存の製品・生産工場において、少し改善することにより、設置・生産可能な範囲内での、成果が、得られなければ、実現性は、乏しいままであり、他者への知的配慮より、自己配慮に終始した 意味のない特許公開でしかない。   In addition, the applicant for the invention himself admitted that it is not feasible just by “creating the possibility”, and in the existing product / production factory, the installation / If the results within the range that can be produced are not obtained, the feasibility is poor, and it is only a meaningless patent publication that is self-consideration rather than intellectual consideration for others.

ヌ、また、常識となっている 液晶素子による表示画像情報が、蛍光素子発光による表示画像情報 より、「美しい」と感じられるのは、液晶素子による表示画像情報の構造上に原因があると思われる。 In addition, the reason why the image information displayed by the liquid crystal element, which has become common sense, is felt more beautiful than the image information displayed by the fluorescent light emission is probably due to the structure of the image information displayed by the liquid crystal element. It is.

観察視聴者は、初めに、視点・焦点が、カラーフィルタ−面上に固定された後、さらに、よく見ようと視点・焦点作業に力が入ることになる(=俗にいう「目を凝らす」行為も含まれる)、この観察視聴者の行為に 応じられれば、視覚生体機能欲求に答え、生体に馴染んだ、表示画像情報と認識され、それが、「美しいと感じる」視中枢内、脳細胞と結合されることにより、美しい表示画像情報と、該観察視聴者は、一般に、認識し・判定することになると思われるが、液晶素子による表示画像情報は、その構造上、この観察視聴者要求に、よく応じて、奥の方にある 背面の光源に 視点・焦点が、移動することが、可能となる。 The viewer / viewer first focuses on the viewpoint / focus work to fix the viewpoint and focus after fixing the viewpoint / focus on the color filter surface (= "scrubbing") If the action of this viewer is accepted, it is recognized as the display image information that responds to the vital function of the visual body and is familiar to the living body, and it is “beautiful” in the visual center, brain cells It is considered that the display image information by the liquid crystal element is generally recognized and judged by the observation viewer, but the display image information by the liquid crystal element is required for the observation viewer due to its structure. Depending on the situation, it becomes possible to move the viewpoint and focus to the light source on the back side.

一方、蛍光素子発光による表示画像情報は、構造上この欲求に、応じられない構造を、なしている。 On the other hand, the display image information by fluorescent light emission has a structure that cannot meet this desire structurally.

つまり、視覚生体機能欲求に答えられなければ、「視覚生体機能欲求に答えられず、視覚生体に馴染めない表示画像情報」と該観察視聴者に、認識・判定され、それは、決して 「美しいと感じる」脳内細胞とは、結合されず、「べたっとした感じ」の脳内細胞と、結合され、いつまで経っても「美しいと感じる」脳内細胞には、辿り着かない。   In other words, if the visual biological function desire is not answered, it is recognized and judged by the viewing viewer as “display image information that cannot be answered by the visual biological function desire and cannot be adapted to the visual biological body”. “Brain cells are not connected, but are connected with“ feeling sticky ”cells in the brain, and the cells in the brain“ feeling beautiful ”cannot be reached.

従って、蛍光素子発光による表示画像情報に、この欲求を満たす構造を 持たすことにより、常識では、確定評価されていた 蛍光素子発光による表示画像情報であっても、液晶素子による表示画像情報と同じか、それ以上の美しい画像情報に改善できると思われ、該構造体の発明と 既存の画像情報表示部への設置が、望まれる。   Therefore, by providing the display image information by the fluorescent element emission with a structure satisfying this desire, it is common knowledge that the display image information by the fluorescent element emission, which has been definitely evaluated, is the same as the display image information by the liquid crystal element. Therefore, it can be improved to more beautiful image information, and the invention of the structure and the installation to the existing image information display section are desired.

また、この構造体を、より美しくするために、長い伝統を持つ万華鏡の3面鏡構造体も、参考にできると思われる。   In order to make this structure more beautiful, a kaleidoscope trihedral mirror structure with a long tradition can be used as a reference.

また、液晶素子による表示画像情報も、該構造をさらに、強化し、既存の画像情報表示部へ設置し、従来に比べ、より美しい画像情報に、発展改良させることも、望まれる。 In addition, it is desired that the display image information by the liquid crystal element is further strengthened and installed in an existing image information display unit, and developed and improved to more beautiful image information than before.

なお、「美しいと感じる」脳内細胞が、他の「視覚生体機能欲求に答えられる」事象と、結合された脳神経細胞索(ルート)を持っているだろうということは、言うまでもない。 It goes without saying that cells in the brain that “feel beautiful” will have other “response to visual biofunction craving” events and a cranial nerve cell line (root).

以上から、「美しいと感じる」=「視覚生体機能欲求に答えられる」という「脳内細胞の図式=脳内細胞の癖」が、浮かび上がってくる。
(つまり、人の感じる「美しい概念」とは、従来の色相・明度・彩度に関連した先天・後天的要因だけではないと言うことである。)
From the above, “I feel beautiful” = “I can respond to the desire for visual biological functions” comes to mind.
(That is, the “beautiful concept” that humans feel is not just congenital or acquired factors related to traditional hue, lightness, and saturation.)

ル、2004年11月読売テレビジョン放送で、公開された有機エレクトロルミネセンス表示画像情報では、有機エレクトロルミネセンスの基盤となる透明シートの背面処理を、白塗装仕上げから、アルミ蒸着による鏡面仕上げに、変更されていたが、有機エレクトロルミネセンス膜が、数ミクロンと薄いため、不印苛による黒色の表現時に、外光が、背面アルミの鏡面仕上げに反射され、黒色の表現が、難しくなると思われる点の解消が、個人的には、望れる。   Le, November 2004, in Yomiuri Television Broadcasting, in the organic electroluminescence display image information, from the white coating finish to the mirror finish by aluminum deposition, the back surface processing of the transparent sheet that is the base of organic electroluminescence However, since the organic electroluminescence film is thin, a few microns, when the black color due to unprinted ink is displayed, the external light is reflected on the mirror finish of the back aluminum, which makes it difficult to express the black color. Personally, it can be resolved.

同様に、薄い液晶素子による表示画像情報の場合は、薄黒色の水平・垂直の2枚の偏光板で、濃い黒を表現できるが、有機エレクトロルミネセンス表示画像情報では、この偏光板の働きに、対応しているものが、存在せず、前記有機エレクトロルミネセンス膜自信は、不印苛時は、ほぼ透明となり、黒色の表現が、難しくなると思われる点の解消が、個人的には、望れる。   Similarly, in the case of display image information by a thin liquid crystal element, dark black can be expressed by two light black horizontal and vertical polarizing plates. However, in organic electroluminescence display image information, this polarizing plate functions. , There is no corresponding, the organic electroluminescence film confidence is almost transparent at the time of unprinted, the cancellation of the point that black expression seems to be difficult, personally, I hope.

ヲ、液晶表示画面以外の有機エレクトロルミネセンス表示画面や、プラズマ表示画面は、最前列の表示面が、わざわざ、ピカピカの鏡面仕上げにしてあるため、画像観察時に、太陽外光・室内照明灯の直接反射や、白っぽい各天井・床・家具・ソファ・衣服・壁、もしくは、襖の、間接的 映り込みが、激しく、日常は約3割、カーテンを開け、庭からの日光が、強まった時は、約7割ほどが、前記最前列の表示面に、くっきりと映り込み、画像内容の観察を、著しく妨げている。 The organic electroluminescence display screen other than the liquid crystal display screen and the plasma display screen have a specially mirror-finished display surface in the front row. Direct reflection and indirect reflection of each whitish ceiling / floor / furniture / sofa / clothes / wall or wall, intense, about 30% in daily life, when curtains are opened and sunlight from the garden is strengthened About 70% of the image is clearly reflected on the display surface of the front row, and the observation of the image content is significantly hindered.

しかし、液晶表示画面の最前列の表示面では、表示面から、手前左右各約20度以外では、その様な映り込みは、全く見受けられず、前記視覚生体機能欲求を、1度も妨げることのない、見やすい画面の印象のみが、心情に残る。本印象は、家電売り場(良い売り場ほど、照明が、明るく、床も、ピカピカに、磨き上げられ、全体的に白系統色である)における、購買選択中の顧客視聴者にとっても、全く同じと思われ、テレビジョン購入時には、決定的、マイナスの差別化要因となると思われる。 However, on the display surface in the front row of the liquid crystal display screen, such reflection is not seen at all other than about 20 degrees each on the right and left sides from the display surface, and the visual biological function desire is prevented once. Only the impression of an easy-to-see screen without any impression remains in my heart. This impression is exactly the same for the customer viewers who are making purchase choices in the consumer electronics department (the better the department is, the brighter the lighting, the brighter the floor, the more polished and the overall color is white) It seems that when buying a television, it will be a decisive and negative differentiator.

また、大画面に 成るほど、この負の要因は、二乗的に増大していくため、他の大画面商品は、液晶大画面販売促進のための、比較陳列役となり、1部を除き、毎年液晶に、その大画面シェアを 攻め込まれている現状も 納得がいく。 In addition, the larger the screen, the more this negative factor increases in a square. Therefore, other large-screen products will serve as comparative displays for the promotion of LCD large-screen sales. I am convinced of the current situation in which the large screen share is being attacked by LCDs.

しかし、このことは、今後の大画面化市場拡大にとり、重要な問題に成って行くと思われ、本反射光現象を改善することが、強く望まれる。 However, this is likely to become an important problem for the future expansion of the market for larger screens, and it is strongly desired to improve the reflected light phenomenon.

ワ、「映像情報内容から判断できる空間提示」には、視覚情報、以外に、音情報・聴覚情報・嗅覚情報、触覚情報、味覚情報が、存在する場面状況があるため、「該融合が提示している空間画像情報場面状況」に、該各情報を、再現でき、人が持つ5感覚情報(視覚・聴覚・嗅覚・触覚・味覚)の立体的再現に拠る、圧倒的臨場感を、提供できる、
が、「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の各画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記各効果を提供できない点が、大問題である。
In “space presentation that can be judged from video information content”, there is a situation where sound information, auditory information, olfactory information, tactile information, and taste information exist in addition to visual information. Each of the information can be reproduced in the “spatial image information scene situation”, and an overwhelming presence based on the three-dimensional reproduction of the five sense information that humans have (visual, auditory, olfactory, tactile, and taste) is provided. it can,
However, there is a limit to the image information representation of “spatial depth image information”, “spatial projection image information”, and “spatial distortion image information”, and the binocular parallax image information is a level area that pops out to the nearest possible level The point that the above-mentioned effects cannot be provided is a major problem.

カ、前記「映像情報内容から判断できる空間提示」の「映像情報内容」以外に、「時間軸上の空間情報 内容から判断できる時間軸上の空間提示」も、望まれ、「観測判断される同空間情報」と「提示される同空間情報」間において、5感覚情報による、双方向の情報交換・双方向の立体画像情報媒体による対話により、人が持つ5感覚情報(視覚・聴覚・嗅覚・触覚・味覚)の空間相互同士の立体的再現を、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での再現で、提供できることも、今後、望まれて行くと思われる。 In addition to the “video information content” in “space presentation that can be judged from the video information content”, “space presentation on the time axis that can be judged from the spatial information content on the time axis” is also desired and “observation judgment is made” The five sensory information (visual, auditory, and olfactory) possessed by two-way information exchange and two-dimensional stereoscopic image information media between the same space information and the presented same space information.・ It is hoped that it will be possible to provide a three-dimensional reproduction of each other (tactile sensation and taste) in a level region that projects to the front of the binocular parallax image information.

ヨ、平面画像情報が十分な立体画像情報に変換できるため、平面画像情報の画像情報関連物に画像情報立体化処理装置、もしくは、立体画像情報保持物を 「繋ぐ」か「繋ぐ行為を続ける」か、投入して「繋ぐ」か、により立体画像情報処理装置をその都度、「形成」、「形成し続ける」、もしくは,「形成持続」でき、現存する平面画像情報も 将来、および、現時点で、立体画像情報の画像情報関連物に、成り得ることになる、   Since the plane image information can be converted into sufficient 3D image information, the image information 3D processing device or the 3D image information holding object is “connected” or “continue to connect” to the image information related object of the plane image information. 3D image information processing device can be “formed”, “continue to form”, or “continue to form” each time depending on whether it is connected or “connected”, and the existing plane image information will also be present in the future , Can be related to image information related to stereoscopic image information,

( 同じく立体・平面画像情報保持予定物、立体・平面画像情報保持可能物も将来、および、現時点で、立体画像情報の画像情報関連物を形成することができる。) (Similarly, a stereoscopic / planar image information holding scheduled object and a stereoscopic / planar image information holding object can also form an image information related object of stereoscopic image information in the future and at present.)

が、「空間深度画像情報」・「空間突出度画像情報」・「空間歪性度画像情報」の各画像情報表現に、限界があり、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での前記各効果を得られることが、できない点が、大問題であり、また、観察視聴者が、最も興奮・感動する領域での、前記各効果を得られない点は、販売効果・市場形成に大きく影響を及ぼし、市場の消失も含んだ、前記研究成果の 極めて、深刻で、重大、かつ、致命的、欠陥的大問題と看做されても、反論の余地も ない。 However, there is a limit to the image information representation of “spatial depth image information”, “spatial projection image information”, and “spatial distortion image information”, and the binocular parallax image information is a level area that pops out to the nearest possible level It is a big problem that the above-mentioned effects cannot be obtained, and the point that the viewers are not able to obtain each effect in the area where the viewers are most excited and moved is the sales effect / market. There is no room for objection even if the research results are considered to be extremely serious, serious, fatal and flawed, which have a major impact on formation and include the disappearance of the market.

本発明は、懸かる諸問題に 着目してなされたもので、その課題とする処は、如何なる方策により、両眼視差画像情報には可能な、目前まで飛び出すレベル領域の空間認識差異情報を、視中枢前部の該積層体に、潜在的に送り込み、視中枢内の「輻輳融合画像情報機能体験」により貯えられている先天・後天の「輻輳融合画像情報群」から個々の輻輳融合画像情報を引き出すか、 The present invention has been made by paying attention to various problems, and the subject of the problem is that by using any measure, it is possible to view the spatial recognition difference information of the level region that projects to the front, which is possible for binocular parallax image information. Each piece of convergence fusion image information from the “congestion fusion image information group” of the congenital / acquired that is potentially sent to the laminate at the front center and stored by the “convergence fusion image information function experience” in the visual center. Pull out or

および、「平面画像情報が持つ 空間画像情報」と「空間情報が持つ 空間情報」から、視覚情報、音情報・聴覚情報・嗅覚情報、触覚情報、味覚情報を、連想推定・観測認識し、5感覚情報(視覚・聴覚・嗅覚・味覚・触覚)表現を 目前まで飛び出すレベル領域での画像情報関連物として提供し、決定権者である観察視聴者に 得(=徳)ある画像情報関連物・得ある空間情報関連物と最終認定されるか を、最終期待課題とした。 From the “spatial image information possessed by planar image information” and “spatial information possessed by spatial information”, visual information, sound information / auditory information / olfactory information, tactile information, and taste information are associatively estimated / observed and recognized. It provides sensory information (visual, auditory, olfactory, gustatory, and tactile) expressions as image information-related objects in the level area that pops out right before the eyes. The final expected issue is whether it will be finally recognized as a spatial information related product.

上記の最終課題を実現するため、極めて簡単な例である図をもちいて 各段落ごとに、説明すると、   In order to achieve the above final task, each paragraph will be explained using a very simple example.

1、本発明の第1の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図1、2において、)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形融合画像情報生成の為、
「大形像系画像情報」(図2のA)と「小形像系画像情報」(図2のB)の少なくとも2つに分け
(以下、この少なくとも2つに分けられた内 「大形像系画像情報」(図2のA)を「大A」、同「小形像系画像情報」(図2のB)を「小B」と呼称する)
これを、別の、少なくとも2つからなる「他の画像情報、または/および、当該平面画像情報」(図2の各CD)
(以下、この少なくとも2つからなる各画像情報を各々 Cと Dと呼称する)
に、各重ね合わせて
《極めて簡単な1例としてC(図2のC)に「大A」(図2のA)を重ね合わせ、D(図2のD)に「小B」(図2のB)を重ね合わせる。》、
「大A」(図2のA)と「小B」(図2のB)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図2のa)することにより「大A」(図2のA)「小B」(図2のB)間の両形融合画像情報・立体画像情報(図2のb)を得ることにおいて、
1. The first three-dimensional image information holding object / image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIGS. 1 and 2)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bilateral fusion image information,
“Large image system image information” (A in FIG. 2) and “Small image system image information” (B in FIG. 2) are divided into at least two (hereinafter referred to as “large” “Image system image information” (A in FIG. 2) is referred to as “Large A”, and “Small image system image information” (B in FIG. 2 is referred to as “Small B”).
This is divided into at least two pieces of “other image information and / or plane image information” (each CD in FIG. 2).
(Hereinafter, each piece of image information consisting of at least two is called C and D respectively)
And overlay each
As a very simple example, “large A” (A in FIG. 2) is superimposed on C (C in FIG. 2), and “small B” (B in FIG. 2) is superimposed on D (D in FIG. 2). . >>
Image information fusion ("a" in FIG. 2) having a difference in image information comparison between "similar / different image information" between "large A" (A in FIG. 2) and "small B" (B in FIG. 2) In order to obtain both-shaped fusion image information / stereoscopic image information (b in FIG. 2) between “large A” (A in FIG. 2) and “small B” (B in FIG. 2),

図2と同じ構成要因からなる図1においては、
「大A」(図1のA)「小B」(図1のB)間が、C(図1のC)とD(図1のD)に各重ね合わせて、両形融合画像情報による立体画像情報を得る位置範囲より「大A」(図1のA)「小B」(図1のB)間を さらに左右・上下・斜め、のいずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、引き離して、C(図1のC)とD(図1のD)に各重ね合わせる(図1のATとCT間、DTとBT間の各差)ことにより、「大A」(図1のA)「小B」(図1のB)間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両形融合画像情報が起こらない位置範囲(図1のa)において、輻輳融合画像情報により画像情報融合(図1のbb)する
(以下、「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 1 consisting of the same components as FIG.
"Large A" (A in Fig. 1) and "Small B" (B in Fig. 1) are superimposed on C (C in Fig. 1) and D (D in Fig. 1), respectively, based on the bimodal fusion image information Between “large A” (A in FIG. 1) and “small B” (B in FIG. 1) from the position range from which the stereoscopic image information is obtained. Or by separating them with various superpositions of 1 or more and superposing them on C (C in FIG. 1) and D (D in FIG. 1) (each between AT and CT in FIG. 1, each between DT and BT) The difference between the “large A” (A in FIG. 1) and the “small B” (B in FIG. 1) is different even though there is a difference in the image information comparison between “similar / different image information”. The image information is fused (bb in FIG. 1) by the convergence fused image information in the position range (a in FIG. 1) where the double-shaped fused image information does not occur because it is too large (hereinafter “both” Called “both deconvergence fusion image information by shape fusion image information”)
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

2、本発明の第2の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図2、3、4において、)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両組融合画像情報生成の為、
「少なくとも2組の組形像系画像情報」(図4のE、F)
《以下、この少なくとも2組の内の1組を「組E」他の1組を「組F」と呼称する。極めて簡単な1例として「1/2小形像系画像情報(図2のB)+1/2大形像系画像情報(図2のA)」系(図4のE)と「残りの1/2大形像系画像情報(図2のA)+同1/2小形像系画像情報(図2のB)」系(図4のF)の相異なる2系》
これを、別の、少なくとも2つからなる「他の画像情報、または/および、当該平面画像情報」CD(図4のCD)に、各重ね合わせて
(極めて簡単な1例としてC(図4のC)に「組E」(図4のE)を重ね合わせ、D(図4のD)に「組F」(図4のF)を重ね合わせる)、
「組E」(図4のE)と「組F」(図4のF)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図4のe)することにより「組E」(図4のE)「組F」(図4のF)間の両組融合画像情報・立体画像情報(図4のf)を得ることにおいて、
2. The second 3D image information holding object / image information 3D processing apparatus or 3D image information processing apparatus of the present invention (in FIGS. 2, 3 and 4)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
To generate both sets of fused image information,
“At least two sets of image information of the image system” (E and F in FIG. 4)
<< Hereafter, one of these at least two sets will be referred to as “set E” and the other set as “set F”. As a very simple example, the “1/2 small image system image information (B in FIG. 2) +1/2 large image system image information (A in FIG. 2)” system (E in FIG. 4) and “the remaining 1 / 2 Large Image System Image Information (A in FIG. 2) +1/2 Small Image System Image Information (B in FIG. 2) ”System (F in FIG. 4)”
This is superimposed on another “at least two other image information or / and the plane image information” CD (CD in FIG. 4) (C (FIG. 4 as a very simple example)). C) of “Set E” (E in FIG. 4) is superimposed, and “Set F” (F in FIG. 4) is superimposed on D (D in FIG. 4).
Image information is merged ("e" in FIG. 4) having a difference in image information comparison between "same kind of different system image information" between "set E" (FIG. 4E) and "set F" (FIG. 4F). In order to obtain both sets of fused image information / stereoscopic image information (f in FIG. 4) between “set E” (E in FIG. 4) and “set F” (F in FIG. 4) by

図4と同じ構成要因からなる図3においては、
「組E」(図3のE)「組F」(図3のF)間が、C(図3のC)とD(図3のD)に各重ね合わせて、両組融合画像情報による立体画像情報を得る位置範囲より「組E」(図3のE)「組F」(図3のF)間を さらに左右・上下・斜め、いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、引き離して、C(図3のC)とD(図3のD)に各重ね合わせる(図3のETとCT間、DTとFT間の各差)ことにより、「組E」(図3のE)「組F」(図3のF)間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両組融合画像情報が起こらない位置範囲(図3のe)において、輻輳融合画像情報により画像情報融合(図3のff)する
(以下、「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 3 consisting of the same components as FIG.
“Set E” (E in FIG. 3) and “Set F” (F in FIG. 3) are superimposed on C (C in FIG. 3) and D (D in FIG. From the position range from which the stereoscopic image information is obtained, the distance between “set E” (E in FIG. 3) and “set F” (F in FIG. 3) is one of one or more, one or more, and one or more various combinations, Or, in various superpositions of 1 or more, they are separated and superposed on C (C in FIG. 3) and D (D in FIG. 3) (differences between ET and CT in FIG. 3, and differences between DT and FT). ) Thus, even though there is a difference in the image information comparison between “same kind of different image information” between “set E” (E in FIG. 3) and “set F” (F in FIG. 3), The image information is fused (“ff” in FIG. 3) by the convergence fused image information in the position range (e in FIG. 3) where both sets of fused image information does not occur because it is too large (hereinafter “both pairs” This is referred to as “both deconvergence fusion image information by fusion image information”)
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

3、本発明の第3の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図5、6において)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形組融合画像情報生成の為、
『前記第1、2の各組み合わせを除く「大A」(図2のA)「小B」(図2のB)「組E」(図4のE)「組F」(図4のF)』間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分け(図6のG,H)、
《以下、この少なくとも2つに分けられたものを各々「混G」(図6のG)、「混H」(図6のH)と呼称する》
C(図6のC)とD(図6のD)に、各重ね合わせて
《極めて簡単な1例としてC(図6のC)に「混G」(図6のG)を重ね合わせ、D(図6のD)に「混H」(図6のH)を重ね合わせる》、
「混G」(図6のG)「混H」(図6のH)間の1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つからなる「同種異系画像情報」同士の画像情報比較で、差異を持ち画像情報融合(図6のg)することにより、「混G」(図6のG)「混H」(図6のH)間の両形組融合画像情報・立体画像情報(図6のh)を得ることにおいて、
3. The third stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIGS. 5 and 6)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bimorphic fusion image information,
“Except for the first and second combinations,“ large A ”(A in FIG. 2)“ small B ”(B in FIG. 2)“ set E ”(E in FIG. 4)“ set F ”(F in FIG. ) ”Is divided into one or more various combinations or at least two by the same superposition (G and H in FIG. 6),
<< Hereinafter, those divided into at least two are called “mixed G” (G in FIG. 6) and “mixed H” (H in FIG. 6), respectively.
C (C in FIG. 6) and D (D in FIG. 6) are superposed on each other. << As a very simple example, "Mixed G" (G in FIG. 6) is superposed on C (C in FIG. 6). D (D of FIG. 6) is superposed with “Mixed H” (H of FIG. 6) >>
One or more various combinations between “mixed G” (G in FIG. 6) and “mixed H” (H in FIG. 6), or images of at least two “similar heterogeneous image information” by the same overlay In the information comparison, the image information is merged (g in FIG. 6) with a difference, so that the mixed image information / stereoscopic information between “mixed G” (G in FIG. 6) and “mixed H” (H in FIG. 6) is obtained. In obtaining image information (h in FIG. 6),

図6と同じ構成要因からなる図5においては、
「混G」(図5のG)「混H」(図5のH)間が、C(図5のC)とD(図5のD)に各重ね合わせて、両形組融合画像情報による立体画像情報を得る位置範囲より
「混G」(図5のG)「混H」(図5のH)間を さらに、左右・上下・斜め、のいずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、引き離して、C(図5のC)とD(図5のD)に各重ね合わせる(図5のGTとCT間、DTとHT間の各差)ことにより、
「混G」(図5のG)「混H」(図5のH)間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両形組融合画像情報が起こらない位置範囲(図5のg)において、輻輳融合画像情報により画像情報融合(図5のhh)する(以下、「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 5 consisting of the same components as FIG.
“Mixed G” (G in FIG. 5) and “Mixed H” (H in FIG. 5) are superimposed on C (C in FIG. 5) and D (D in FIG. 5), respectively, so From the position range where stereo image information is obtained, the distance between “Mixed G” (G in FIG. 5) and “Mixed H” (H in FIG. 5) is further changed to one or more of left, right, up, down, and diagonal, and one or more of the same. In different combinations, or one or more various superpositions, and separate each other onto C (C in FIG. 5) and D (D in FIG. 5) (between GT and CT in FIG. 5, between DT and HT) Each difference)
Although there is a difference in the image information comparison between “same kind of different image information” between “mixed G” (G in FIG. 5) and “mixed H” (H in FIG. 5), the difference is too large. In the position range (g in FIG. 5) where the both-shaped set fusion image information does not occur, image information fusion (hh in FIG. 5) is performed using the convergence-fused image information (hereinafter referred to as “both separated convergence-fused images based on both-form set fusion image information”). Called "information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

4、本発明の第4の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図2、7、8、13において)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形融合画像情報生成の為、
「大A」(図2のA)「小B」(図2のB)に2分し、「大A」(図2のA)と「小B」(図2のB)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図2のa)することにより「大A」(図2のA)「小B」(図2のB)間の両形融合画像情報・立体画像情報(図2のb)を得ることにおいて、
4. The fourth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIGS. 2, 7, 8, and 13)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bilateral fusion image information,
Divide into “Large A” (A in FIG. 2) and “Small B” (B in FIG. 2). Both forms of “large A” (A in FIG. 2) and “small B” (in FIG. 2) are obtained by having a difference in image information comparison between “different image information” and fusing the image information (a in FIG. 2). In obtaining fusion image information / stereoscopic image information (b in FIG. 2),

図8において、
少なくとも1つからなる「画像の像形状画像情報種」(図8のQ)を縦方向に沿って、横方向に分け目を入れる様に分けられた少なくとも2つ以上からなる形状に細分し(図8のQa〜Qg)
《極めて簡単な1例として、正方形型「画像の像形状画像情報種」(図8のQ)を、横長の細い長方形型「画像の像形状画像情報種」に細分する(図8のQa〜Qg)》、
この細分された「画像の像形状画像情報種」(図8のQa〜Qg)から、「両形融合画像情報」の融合を起こさせる(図2のaからbへの変化)ために、それぞれの細分ごとに「大形像系画像情報」(図8のIa〜Is)と「小形像系画像情報」(図8のJb〜Jt)の少なくとも2つに分け
《以下、この細分ごとに少なくとも2つに分けられたものの内 「大形像系画像情報」を「細I」(図8のI)、同「小形像系画像情報」を「細J」(図8のJ)と呼称する。また、順序を変え「大A」(図2のA)「小B」(図2のB)を双方同様、双方同間隔に細分化しても「細I」(図8のIa〜Is)「細J」(図8のJb〜Jt)を得られ、同じことになる。》
「細I」(図8のI)「細J」(図8のJ)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図8のi)することにより「細I」(図8のI)「細J」(図8のJ)間の両形融合画像情報・立体画像情報(図8のj)を得ることにおいて、
In FIG.
At least one “image shape image information type of image” (Q in FIG. 8) is subdivided into a shape consisting of at least two or more divided along the vertical direction so as to divide the horizontal direction (see FIG. 8). 8 Qa to Qg)
As a very simple example, the square type “image shape image information type of image” (Q in FIG. 8) is subdivided into a horizontally long and thin rectangular type “image shape image information type of image” (Qa˜ in FIG. 8). Qg) >>
In order to cause the fusion of “bimorphic fusion image information” (change from a to b in FIG. 2) from the subdivided “image shape image information type of image” (Qa to Qg in FIG. 8), Are divided into at least two of “large image system image information” (Ia to Is in FIG. 8) and “small image system image information” (Jb to Jt in FIG. 8). Of those divided into at least two, “Large Image System Image Information” is “Fine I” (I in FIG. 8), and “Small Image System Image Information” is “Fine J” (J in FIG. 8). Call it. Further, even if the order is changed and “Large A” (A in FIG. 2) and “Small B” (B in FIG. 2) are both subdivided into the same interval, “Fine I” (Ia to Is in FIG. 8) “ Narrow J "(Jb to Jt in FIG. 8) is obtained, and the same thing is obtained. >>
By comparing image information between “similar / different image information” between “Fine I” (I in FIG. 8) and “Fine J” (J in FIG. 8), the image information is fused (i in FIG. 8). In obtaining both-shaped fusion image information / stereoscopic image information (j in FIG. 8) between “Fine I” (I in FIG. 8) and “Fine J” (J in FIG. 8),

図8と同じ構成要因からなる図7においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「細I」(図7のIa〜Isの内、いずれか1つ以上)「細J」(図7のJb〜Jtの内、いずれか1つ以上)間に置いて、
前記「細I」(図7のIa〜Is)「細J」(図7のJb〜Jt)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより
《図7内にある図13の52の大の谷型図形(図7のI)と同小の谷型図形(図7のJ)》、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形融合画像情報による立体画像情報が得られない時(図7のia〜is)
(両形融合画像情報可能な差異範囲を、超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図7のjjb〜jjt)
(以下、両形融合画像情報と上下「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 7, which consists of the same components as FIG. 8,
At least one or more “fine I” in “image shape image information type of image” (any one or more of Ia to Is in FIG. 7) “fine J” (of Jb to Jt in FIG. 7, Any one or more)
By further separating the “Fine I” (Ia to Is in FIG. 7) and “Fine J” (Jb to Jt in FIG. 7), the difference in image information comparison between “similar image information” increases. The large valley-shaped figure 52 in FIG. 13 (I in FIG. 7) and the small valley-shaped figure (J in FIG. 7) in FIG.
(Despite having a difference, the difference is too large)
When 3D image information cannot be obtained from the bimodal fusion image information (ia to is in FIG. 7)
(When there is a difference that exceeds the difference range that can be combined image information of both forms),
Image information is fused by the convergence fused image information (jjb to jjt in FIG. 7).
(Hereinafter referred to as double-shaped fusion image information and upper and lower "double deconvergence fusion image information by double-shaped fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

5、本発明の第5の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図4、8、9、10、13において)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両組融合画像情報生成の為、
「組E」(図4のE)「組F」(図4のF)に2分し、「組E」(図4のE)と「組F」(図4のF)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図4のe)することにより「組E」(図4のE)「組F」(図4のF)間の両組融合画像情報・立体画像情報(図4のf)を得ることにおいて、
5. The fifth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIGS. 4, 8, 9, 10, and 13)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
To generate both sets of fused image information,
Divided into “set E” (FIG. 4E) and “set F” (FIG. 4F), “same type between“ set E ”(FIG. 4E) and“ set F ”(FIG. 4F) Both sets between "set E" (Fig. 4E) and "set F" (Fig. 4F) have a difference in image information comparison between "different image information" and are fused (Fig. 4e). In obtaining fusion image information / stereoscopic image information (f in FIG. 4),

「細I」(図8のIa〜Is)「細J」(図8のJb〜Jt)から、横細分された前記似の両組融合画像情報(図10のl)を得るため「少なくとも2組の組形像系画像情報」を作り出し(図10のKa〜Ks、Lb〜Lt)
《以下、この少なくとも2組の内の1組を「細K」(図10のK)他の1組を「細L」(図10のL)と呼称する。また、順番を変え「組E」(図4のE)「組F」(図4のF)を双方同様、双方同間隔に横細分化しても「細K」(図10のK)「細L」(図10のL)が得られ、同じことになる。》
「細K」(図10のK)「細L」(図10のL)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図10のk)することにより「細K」(図10のK)「細L」(図10のL)間の両組融合画像情報・立体画像情報(図10のl)を得ることにおいて、
From “Fine I” (Ia to Is in FIG. 8) and “Fine J” (Jb to Jt in FIG. 8), in order to obtain the similar fused image information (l in FIG. 10) that is subdivided horizontally, “at least 2 A set of combined image system image information ”(Ka to Ks, Lb to Lt in FIG. 10)
<< Hereafter, one of the at least two sets is referred to as “Fine K” (K in FIG. 10), and the other one is referred to as “Fine L” (L in FIG. 10). Also, even if the order is changed and “set E” (E in FIG. 4) and “set F” (F in FIG. 4) are both subdivided at the same interval, “fine K” (K in FIG. 10) “fine” L "(L in FIG. 10) is obtained and will be the same. >>
By combining image information (k in FIG. 10) with a difference in image information comparison between “similar / different image information” between “thin K” (K in FIG. 10) and “thin L” (L in FIG. 10). In obtaining both sets of fused image information / stereoscopic image information (l in FIG. 10) between “thin K” (K in FIG. 10) and “thin L” (L in FIG. 10),

図10と同じ構成要因からなる図9においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「細K」(図9のKa〜Ksの内、いずれか1つ以上)「細L」(図9のLb〜Ltの内、いずれか1つ以上)間に置いて、
前記「細K」(図9のKa〜Ks)「細L」(図9のLb〜Lt)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより《図9内にある図13の51の左右2つの山型図形(図9のK、L)》、、
(差異を持ちながらも、該差異が、大きすぎるため)、
両組融合画像情報による立体画像情報が得られない時(図9のka〜ks間)
(両組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図9のllb〜llt)
(以下、両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 9 consisting of the same components as FIG.
At least one or more “fine K” in “image shape image information type of image” (any one or more of Ka to Ks in FIG. 9) “fine L” (of Lb to Lt in FIG. Any one or more)
By further separating the “thin K” (Ka to Ks in FIG. 9) and “thin L” (Lb to Lt in FIG. 9), the difference in image information comparison between “similar heterogeneous image information” increases. 9, two left and right chevron figures (K, L in FIG. 9) in FIG.
(Despite having a difference, the difference is too large)
When stereoscopic image information based on both sets of fused image information cannot be obtained (between ka and ks in FIG. 9)
(When the difference is in the range beyond the difference range that can be combined image information of both sets),
The image information is fused by the convergence fused image information (llb to llt in FIG. 9).
(Hereinafter, both sets of fusion image information and upper and lower "double deconvergence fusion image information by both sets of fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

6、本発明の第6の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図8、10、11、12、13において)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形組融合画像情報生成のため、
『前記第5、6の各組み合わせを除く「細I」(図8のIa〜Is)「細J」(図8のJb〜Jt)「細K」(図10のKa〜Kd)「細L」(図10のLa〜Ld)』間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる、少なくとも2つに分け、(図12のMa〜Ms、Nb〜Nt)《以下、この少なくとも2つに分けられたものを 各々「混M」(図12のM)「混N」(図12のN)と呼称する》
「混M」(図12のM)「混N」(図12のN)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図12のm)することにより「混M」(図12のM)「混N」(図12のN)間の両形組融合画像情報・立体画像情報(図12のn)を得ることにおいて、
6. The sixth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIGS. 8, 10, 11, 12, and 13)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
To generate bimorphic fusion image information,
“Excluding the fifth and sixth combinations“ Fine I ”(Ia to Is in FIG. 8)“ Fine J ”(Jb to Jt in FIG. 8)“ Fine K ”(Ka to Kd in FIG. 10)“ Fine L "(La to Ld in FIG. 10)" is divided into at least two by one or more various combinations or superposition, (Ma to Ms, Nb to Nt in FIG. 12) << Hereafter, at least 2 Each of the two is called “Mix M” (M in FIG. 12) and “Mix N” (N in FIG. 12) >>
By combining image information (m in FIG. 12) having a difference in image information comparison between “same kind of different image information” between “mixed M” (M in FIG. 12) and “mixed N” (N in FIG. 12). In obtaining both-form combination image information / stereoscopic image information (n in FIG. 12) between “Mix M” (M in FIG. 12) and “Mix N” (N in FIG. 12),

図12と同じ構成要因からなる図11においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「混M」(図11のMa〜Msの内、いずれか1つ以上)「混N」(図11のNb〜Ntの内、いずれか1つ以上)間において、
前記「混M」(図11のMa〜Msの内、いずれか1つ以上)「混N」(図11のNb〜Ntの内、いずれか1つ以上)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で、差異が大きくなることにより、
《図11内にある図13の52の大の谷型図形(図11のM)と同小の谷型図形(図11のN)》、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形組融合画像情報による立体画像情報が得られない時(図11のm、ma〜ms )
(両形組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図11のnn、nnb〜nnt)
(以下、両形組融合画像情報と上下「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 11 consisting of the same components as FIG. 12,
At least one or more “mixed M” in “image shape image information type of image” (any one or more of Ma to Ms in FIG. 11) “mixed N” (of Nb to Nt in FIG. 11, Between any one or more)
The “mixed M” (any one or more of Ma to Ms in FIG. 11) and the “mixed N” (any one or more of Nb to Nt in FIG. 11) are further separated, By comparing the image information between the "image information",
<< the large valley-shaped figure of 52 of FIG. 13 in FIG. 11 (M of FIG. 11) and the same valley-shaped figure (N of FIG. 11) >>
(Despite having a difference, the difference is too large)
When 3D image information cannot be obtained by using both-form combination image information (m, ma to ms in FIG. 11).
(When there is the difference in the range that exceeds the difference range that can be combined image information of both forms)
Image information is fused by the convergence fused image information (nn, nnb to nnt in FIG. 11).
(Hereinafter referred to as both-form set fusion image information and upper and lower "both deconvergence fusion image information by both-form set fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

7、本発明の第7の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図2、28、29において)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形融合画像情報生成の為、
「大A」(図2のA)「小B」(図2のB)に2分し、「大A」(図2のA)と「小B」(図2のB)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図2のa)することにより「大A」(図2のA)「小B」(図2のB)間の両形融合画像情報・立体画像情報(図2のb)を得ることにおいて、
7. The seventh stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIGS. 2, 28 and 29)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bilateral fusion image information,
Divide into “Large A” (A in FIG. 2) and “Small B” (B in FIG. 2). Both forms of “large A” (A in FIG. 2) and “small B” (in FIG. 2) are obtained by having a difference in image information comparison between “different image information” and fusing the image information (a in FIG. 2). In obtaining fusion image information / stereoscopic image information (b in FIG. 2),

図29において、
少なくとも1つからなる「画像の像形状画像情報種」(図29のX)を縦方向に沿って横方向に分け目を入れる様に分けられた少なくとも2つ以上からなる形状に細分し(図29のXa〜Xg)
《極めて簡単な1例として、正方形型「画像の像形状画像情報種」(図29のX)を、横長の細い長方形型「画像の像形状画像情報種」に細分する(図29のXa〜Xg)》、
この細分された「画像の像形状画像情報種」(図29のXa〜Xg)から、「両形融合画像情報」の融合を起こさせる(図2のaからbへの変化)ために、 それぞれの細分ごとに「大形像系画像情報」(図29のRa〜Rs)と「小形像系画像情報」(図29のSb〜St)の少なくとも2つに分け
《以下、この細分ごとに少なくとも2つに分けられたものの内 「大形像系画像情報」を「細R」(図29のR)、同「小形像系画像情報」を「細S」(図29のS)と呼称する。また、順序を変え「大A」(図2のA)「小B」(図2のB)を双方同様、双方同間隔に細分化しても「細R」(図29のRa〜Rs)「細S」(図29のSb〜St)を得られ、同じことになる。》
「細R」(図29のR)「細S」(図29のS)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図29のr)することにより「細R」(図29のR)「細S」(図29のS)間の両形融合画像情報・立体画像情報(図29のs)を得ることにおいて、
In FIG.
At least one “image shape image information type of image” (X in FIG. 29) is subdivided into at least two or more shapes divided so as to be divided in the horizontal direction along the vertical direction (FIG. 29). Xa to Xg)
As an extremely simple example, the square type “image shape image information type of image” (X in FIG. 29) is subdivided into a horizontally long rectangular type “image shape image information type of image” (Xa in FIG. 29). Xg) >>
In order to cause the fusion of “both-shaped fusion image information” (change from a to b in FIG. 2) from the subdivided “image shape image information type of image” (Xa to Xg in FIG. 29), Are divided into at least two of “large image system image information” (Ra to Rs in FIG. 29) and “small image system image information” (Sb to St in FIG. 29) << hereinafter, each subdivision Of those divided into at least two, “Large Image System Image Information” is “Fine R” (R in FIG. 29), and “Small Image System Image Information” is “Fine S” (S in FIG. 29). Call it. Further, even if the order is changed and “Large A” (A in FIG. 2) and “Small B” (B in FIG. 2) are subdivided at the same interval, “Fine R” (Ra to Rs in FIG. 29) “ Narrow S ”(Sb to St in FIG. 29) is obtained, and the same thing is obtained. >>
By comparing image information of “similar / different image information” between “fine R” (R in FIG. 29) and “fine S” (S in FIG. 29), image information is fused (r in FIG. 29). In obtaining both-shaped fusion image information and stereoscopic image information (s in FIG. 29) between “thin R” (R in FIG. 29) and “thin S” (S in FIG. 29),

図29と同じ構成要因からなる図28においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「細R」(図28のRa〜Rsの内、いずれか1つ以上)「細S」(図28のSb〜Stの内、いずれか1つ以上)間において、
前記「細R」(図28のRa〜Rs)「細S」(図28のSb〜St)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
「同種異系画像情報」同士の画像情報比較で差異が大きいため
(差異を持ちながらも、該差異が、大きすぎるため)、
両形融合画像情報による立体画像情報が得られない時(図28のra〜rs)
(両形融合画像情報可能な差異範囲を、超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図28のssb〜sst)
(以下、両形融合画像情報と左右「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 28 consisting of the same components as FIG. 29,
At least one or more “fine R” in “image shape image information type of image” (any one or more of Ra to Rs in FIG. 28) “fine S” (of Sb to St in FIG. 28, Between any one or more)
By further separating the “thin R” (Ra to Rs in FIG. 28) and the “thin S” (Sb to St in FIG. 28), the difference in image information comparison between “similar / different image information” increases.
Because there is a large difference in the image information comparison between “same kind of different image information” (because there is a difference, the difference is too large)
When 3D image information cannot be obtained based on the bimodal fusion image information (ra to rs in FIG. 28).
(When there is a difference that exceeds the difference range that can be combined image information of both forms),
Image information is fused by the convergence fused image information (ssb to sst in FIG. 28).
(Hereinafter referred to as double-shaped fusion image information and left and right "biconvergence fusion image information based on double-shaped fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

8、本発明の第8の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図4、29、30、31において)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両組融合画像情報生成の為、
「組E」(図4のE)「組F」(図4のF)に2分し、「組E」(図4のE)と「組F」(図4のF)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図4のe)することにより「組E」(図4のE)「組F」(図4のF)間の両組融合画像情報・立体画像情報(図4のf)を得ることにおいて、
「細R」(図29のRa〜Rs)「細S」(図29のSb〜St)から、縦細分された前記似の両組融合画像情報(図31のu)を得るため「少なくとも2組の組形像系画像情報」を作り出し(図31のTa〜Ts、Ub〜Ut)
《以下、この少なくとも2組の内の1組を「細T」(図31のT)他の1組を「細U」(図31のU)と呼称する。また、順番を変え「組E」(図4のE)「組F」(図4のF)を双方同様、双方同間隔に縦細分化しても「細T」(図31のT)「細U」(図31のU)が得られ、同じことになる。》
「細T」(図31のT)「細U」(図31のU)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図31のt)することにより「細T」(図31のT)「細U」(図31のU)間の両組融合画像情報・立体画像情報(図31のu)を得ることにおいて、
8. The eighth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIGS. 4, 29, 30, 31)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
To generate both sets of fused image information,
Divided into “set E” (FIG. 4E) and “set F” (FIG. 4F), “same type between“ set E ”(FIG. 4E) and“ set F ”(FIG. 4F) Both sets between "set E" (Fig. 4E) and "set F" (Fig. 4F) have a difference in image information comparison between "different image information" and are fused (Fig. 4e). In obtaining fusion image information / stereoscopic image information (f in FIG. 4),
In order to obtain the above similar fused image information (u in FIG. 31) vertically subdivided from “Fine R” (Ra to Rs in FIG. 29) and “Fine S” (Sb to St in FIG. 29), “at least 2 A set of combined image system image information ”(Ta to Ts, Ub to Ut in FIG. 31)
<< Hereafter, one of the at least two sets will be referred to as “thin T” (T in FIG. 31) and the other set will be referred to as “thin U” (U in FIG. 31). Further, even if the order is changed and “set E” (E in FIG. 4) and “set F” (F in FIG. 4) are both subdivided vertically at the same interval, “fine T” (T in FIG. 31) “fine” U "(U in FIG. 31) is obtained and will be the same. >>
By combining image information (t in FIG. 31) with a difference in image information comparison between “similar / different image information” between “thin T” (T in FIG. 31) and “thin U” (U in FIG. 31). In obtaining both sets of fused image information / stereoscopic image information (u in FIG. 31) between “thin T” (T in FIG. 31) and “thin U” (U in FIG. 31),

図31と同じ構成要因からなる図30においては、
「画像の像形状画像情報種」内の 少なくとも1つ以上の「細T」(図30のTa〜Tsの内、いずれか1つ以上)「細U」(図30のUb〜Utの内、いずれか1つ以上)間に置いて、
前記「細T」(図30のTa〜Ts)「細U」(図30のUb〜Ut)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両組融合画像情報による立体画像情報が得られない時(図30のta〜ts間)
(両組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図30のuub〜uut)
(以下、両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 30 consisting of the same components as FIG.
At least one or more “fine T” in “image shape image information type of image” (any one or more of Ta to Ts in FIG. 30) “fine U” (of Ub to Ut in FIG. Any one or more)
By further separating the “thin T” (Ta to Ts in FIG. 30) and “thin U” (Ub to Ut in FIG. 30), and the difference in image information comparison between “similar / different image information” increases,
(Despite having a difference, the difference is too large)
When stereoscopic image information based on both sets of fused image information cannot be obtained (between ta and ts in FIG. 30)
(When the difference is in the range beyond the difference range that can be combined image information of both sets),
Image information is fused by the convergence fused image information (uub to uut in FIG. 30).
(Hereinafter, both sets of fusion image information and left and right "both deconvergence fusion image information by both sets of fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

9、本発明の第9の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図29、31、32、33において)
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形組融合画像情報生成の為、
『前記第7、8の各組み合わせを除く「細R」(図29のRa〜Rs)「細S」(図29のSb〜St)「細T」(図31のTa〜Td)「細U」(図31のUb〜Ut)』間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる、少なくとも2つに分け、(図33のVa〜Vs、Wb〜Wt)《以下、この少なくとも2つに分けられたものを各々「混V」(図33のV)「混W」(図33のW)と呼称する》
「混V」(図33のV)「混W」(図33のW)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図33のv)することにより「混V」(図33のV)「混W」(図33のW)間の立体画像情報(図33のw)を得ることにおいて、
9. The ninth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIGS. 29, 31, 32, and 33)
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bimorphic fusion image information,
“Narrow R” (Ra to Rs in FIG. 29) “Narrow S” (Sb to St in FIG. 29) “Narrow T” (Ta to Td in FIG. 31) “Narrow U” excluding the seventh and eighth combinations "(Ub to Ut in FIG. 31)" is divided into at least two by one or more various combinations or superposition, (Va to Vs, Wb to Wt in FIG. 33) << Hereafter, at least 2 Each of the divided parts is called “Mixed V” (V in FIG. 33) and “Mixed W” (W in FIG. 33) >>
By combining the image information (v in FIG. 33) with a difference in the image information comparison between the “homogeneous image information” between “mixed V” (V in FIG. 33) and “mixed W” (W in FIG. 33). In obtaining stereoscopic image information (w in FIG. 33) between “mixed V” (V in FIG. 33) and “mixed W” (W in FIG. 33),

図33と同じ構成要因からなる図32においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「混V」(図32のVa〜Vsの内、いずれか1つ以上)「混W」(図32のWb〜Wtの内、いずれか1つ以上)間において、
前記「混V」(図32のVa〜Vsの内、いずれか1つ以上)「混W」(図32のWb〜Wtの内、いずれか1つ以上)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で、差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形組融合画像情報による立体画像情報が得られない時(図32のva〜vs )
(両形組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図32のww、wwb〜wwt)
(以下、両形組融合画像情報と左右「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 32 consisting of the same components as FIG. 33,
At least one or more “mixed V” in “image shape image information type of image” (any one or more of Va to Vs in FIG. 32) “mixed W” (of Wb to Wt in FIG. 32, Between any one or more)
The “mixed V” (any one or more of Va to Vs in FIG. 32) and “mixed W” (any one or more of Wb to Wt in FIG. 32) are further separated, By comparing the image information between the "image information",
(Despite having a difference, the difference is too large)
When 3D image information cannot be obtained based on the bimodal combination image information (va to vs in FIG. 32).
(When there is the difference in the range that exceeds the difference range that can be combined image information of both forms)
Image information is fused by the convergence fused image information (ww, wwb to wwt in FIG. 32).
(Hereinafter referred to as double-shaped set fusion image information and left and right "biconvergence fusion image information based on double-type set fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus characterized in that the act can be performed in any number.

10、本発明の第10の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図1、2、3、4、5、6、7、9、11、28、30、32、34、35、36および、37において)
「両形融合画像情報」(図2のb)、
「両組融合画像情報」(図4のf)、
「両形組融合画像情報」(図6のh)、
前記第1記載の「両形融合画像情報による両離輻輳融合画像情報」(図1のbb)、
前記第2記載の「両組融合画像情報による両離輻輳融合画像情報」(図3のff)、
前記第3記載の「両形組融合画像情報による両離輻輳融合画像情報」、(図5のhh)、
前記第4記載の『両形融合画像情報と上下「両形融合画像情報による両離輻輳融合画像情報」』(図7のjj)、
前記第5記載の『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』(図9のll)、
前記第6記載の『両形組融合画像情報と上下「両形組融合画像情報による両離輻輳融合画像情報」』、(図11のnn、)、
前記第7記載の『両形融合画像情報と左右「両形融合画像情報による両離輻輳融合画像情報」』(図28のss)、
前記第8記載の『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』(図30のuu)、
および、
前記第9記載の『両形組融合画像情報と左右「両形組融合画像情報による両離輻輳融合画像情報」』、(図32のww)、の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、構成されている
10. The tenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus according to the present invention (see FIGS. 1, 2, 3, 4, 5, 6, 7, 9, 11, 28, 30, 32, 34, 35, 36 and 37)
“Both-shaped fusion image information” (FIG. 2 b),
“Both-set fusion image information” (f in FIG. 4),
“Both-type combined image information” (h in FIG. 6),
The “both deconvergence fusion image information based on the bilateral fusion image information” (bb in FIG. 1),
“Both deconvergence fusion image information based on both sets of fusion image information” (ff in FIG. 3),
“Both deconvergence fusion image information based on both-shape set fusion image information”, (hh in FIG. 5),
“Dual fusion image information and upper and lower“ both deconvergence fusion image information by bimodal fusion image information ”” (jj in FIG. 7),
“Both-set fusion image information and upper and lower“ both deconvergence fusion image information by both-set fusion image information ”” (11 in FIG. 9),
“Dual form fusion image information and upper and lower“ both deconvergence fusion image information by both form fusion image information ”” described in the sixth section, (nn in FIG. 11),
“Dual form fusion image information and left and right“ both deconvergence fusion image information by double form fusion image information ”” (ss in FIG. 28),
“Both-set fusion image information and left and right“ both deconvergence fusion image information by both-set fusion image information ”” (uu in FIG. 30),
and,
Of the above-mentioned “both forms combined image information and left and right“ both deconvergence fused image information based on both forms combined image information ”” (ww in FIG. 32),
It is composed of one or more, various combinations of one or more, or one or more various combinations.

《極めて簡単な例で、説明すると 図35は、
図9の左右2つの山型図形(図9のK、L)を 図13の52 の左右2つの谷型図形で実現した『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』に、
『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』である
図30のT、Uの両離輻輳融合画像情報を
そのまま重ね融合させた複合図形である図35のY3、Y4である。
図35のY3、Y4間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図35のy3)ことにより図35の「Y3の402a」 などの補間部分が、必要な図35のY3、Y4間の両離輻輳融合画像情報(図35のy4)を表している。
<< This is a very simple example.
The two left and right mountain-shaped figures (K and L in FIG. 9) are realized by the two left and right valley-shaped figures in FIG. Fusion image information ””
The both-divergence fusion image information of T and U of FIG. 30 which is “both-group fusion image information and right and left“ both-defusion convergence image information by both-set fusion image information ””.
They are Y3 and Y4 in FIG. 35, which are composite figures that are merged as they are.
Interpolation portions such as “Y3 402a” in FIG. 35 are obtained by merging image information (y3 in FIG. 35) with a difference in image information comparison between “similar / different image information” between Y3 and Y4 in FIG. 35 represents the necessary deconvergence fusion image information between Y3 and Y4 in FIG. 35 (y4 in FIG. 35).

図34は、
そのまま重ね融合させた前記図35のY3、Y4に、図35の「Y3の402a」、などの補間部分が、発生し無い様に、隙間を無くす様に、各々左右に詰めた工夫をして、重ね融合させた複合図形である図34のY1、Y2である。
図34のY1、Y2間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図34のy1)ことにより図35の「Y3の402a」、などの補間部分を、必要としない図34のY1、Y2間の両離輻輳融合画像情報(図34のyy2)を 表している。
FIG.
35. Y3 and Y4 in FIG. 35, which have been merged as they are, have been devised so that the interpolated portion such as “Y3 402a” in FIG. 34 are Y1 and Y2 in FIG.
Interpolation such as “Y3 402a” in FIG. 35 is obtained by merging image information (y1 in FIG. 34) with a difference in image information comparison between “similar / different image information” between Y1 and Y2 in FIG. 34, the deconvergence fusion image information (yy2 in FIG. 34) between Y1 and Y2 in FIG.

図37は、
図9の左右2つの山型図形(図9のK、L)である
『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』に、
『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』である
図30のT、Uの両離輻輳融合画像情報を
そのまま重ね融合させることにより、隠れる部分を持った複合図形である図37のY7、Y8である。
図37のY7、Y8間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図37のy7)ことにより隠れた部分を持つ図37の重層部分が、発生する図37のY7、Y8間の両離輻輳融合画像情報(図37のy8)を 表している。
FIG.
In the left and right two mountain-shaped figures (K and L in FIG. 9) of FIG.
The both-divergence fusion image information of T and U of FIG. 30 which is “both-group fusion image information and right and left“ both-defusion convergence image information by both-set fusion image information ””.
They are Y7 and Y8 in FIG. 37, which are composite figures with hidden parts by overlapping and fusing as they are.
The overlapped portion of FIG. 37 having a hidden portion is generated by the image information comparison between the “homogeneous image information” between Y7 and Y8 of FIG. 37 shows both deconvergence fusion image information (y8 in FIG. 37) between Y7 and Y8 in FIG.

図36は、
前記図37のY7、Y8の様な、隠れる部分が、発生する重層部分が、発生し無い様に、重層部分を左右にずらす様に、工夫して、重ね融合させた複合図形である図36のY5、Y6である。
図36のY5、Y6間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図36のy5)ことにより図37の隠れ部分を生み出す重層部分が、発生しない図36のY5、Y6間の両離輻輳融合画像情報(図36のyy6)を 表している。》
各融合画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同各備えさせられること、
FIG.
FIG. 36 is a composite figure in which the hidden portions, such as Y7 and Y8 in FIG. 37, are superimposed and fused so that the overlapping portions are shifted left and right so that the generated overlapping portions do not occur. Y5 and Y6.
FIG. 36 is a diagram in which there is no multi-layered portion that generates a hidden portion in FIG. 37 by having a difference in image information comparison between “homogeneous image information” between Y5 and Y6 in FIG. 36 shows both deconvergence fusion image information (yy6 in FIG. 36) between Y5 and Y6. >>
Including any one or more of each fusion image information signal and the same image information light, or being provided with each

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする前記第1〜9のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the three-dimensional image information holding object / image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to ninth aspects, wherein the act can be performed in any number.

11、本発明の第11の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図25において)
時間軸上の平面画像情報(図25の121)内部に存在する
「音情報」(図25の122)・「文字情報」(図25の123)・
「人情報」(図25の124)・「生物情報」(図25の125)・
「物情報」(図25の126)・「カメラ類撮影状況情報」(図25の127)・
「前記情報を除いた平面画像情報」(図25の128)・
「人が持つ 私的・地域的・公知的 概念認識情報」
(以下、「人認識情報」と 呼称する)(図25の129)・
「人が推定できる 私的・地域的・公知的 連想推定情報」
(以下、「人推定情報」と 呼称する)(図25の212)・
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」
(以下、「制御情報」と 呼称する)(図25の213)、
および、
「コンピュータプログラム言語情報の処理情報」
(以下、「言語情報」と 呼称する)(図25の214)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図25の130)
11. The eleventh stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIG. 25)
“Sound information” (122 in FIG. 25), “Character information” (123 in FIG. 25) existing in the plane image information (121 in FIG. 25) on the time axis,
“Personal information” (124 in FIG. 25) • “Biological information” (125 in FIG. 25)
“Object information” (126 in FIG. 25) • “Camera shooting status information” (127 in FIG. 25)
“Plane image information excluding the information” (128 in FIG. 25).
"Personal, regional, and publicly known concept recognition information that people have"
(Hereafter referred to as “person recognition information”) (129 in FIG. 25)
"Private, regional, and publicly known association estimation information that humans can estimate"
(Hereinafter referred to as “person estimation information”) (212 in FIG. 25).
"Processing information for any of the control units, control devices, control devices, and control systems"
(Hereinafter referred to as “control information”) (213 in FIG. 25),
and,
"Processing information of computer program language information"
(Hereinafter referred to as “language information”) (214 in FIG. 25)
"Information consisting of one or more, one or more various combinations, or one or more various overlays" (130 in FIG. 25)

と、
「時間同軸上の音情報、同軸上の近似類の平均値音情報、または、同軸上の同偏差値音情報」(図25の131)
「同軸上の文字情報、同軸上の近似類の平均値文字情報、または、同軸上の同偏差値文字情報」(図25の132)
「同軸上の人情報、同軸上の近似類の平均値人情報、または、同軸上の同偏差値人情報」(図25の133)
「同軸上の生物情報、同軸上の近似類の平均値生物情報、または、同軸上の同偏差値生物情報」(図25の134)
「同軸上の物情報、同軸上の近似類の平均値物情報、または、同軸上の同偏差値物情報」(図25の135)
「同軸上のカメラ類撮影状況情報、同軸上の近似類の平均値カメラ類撮影状況情報、または、同軸上の同偏差値カメラ類撮影状況情報」(図25の136)
「同軸上の前記情報を除いた平面画像情報、同軸上の近似類の平均値前記情報を除いた平面画像情報、または、同軸上の同偏差値前記情報を除いた平面画像情報」(図25の137)
『同軸上の「人認識情報」、同軸上の近似値内の平均値「人認識情報」、または、同軸上の同偏差値「人認識情報」』(図25の215)・
『同軸上の「人推定情報」、同軸上の近似値内の平均値「人推定情報」、または、同軸上の同偏差値「人推定情報」』(図25の216)・
『同軸上の「制御情報」、同軸上の近似値内の平均値「制御情報」、または、同軸上の同偏差値「制御情報」』(図25の217)、および、
『同軸上の「言語情報」、同軸上の近似値内の平均値「言語情報」、または、同軸上の同偏差値「言語情報」』(図25の218)
の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図25の139)
との情報比較で、
When,
"Sound information on time coaxial, average value sound information of approximation on coaxial, or same deviation value sound information on coaxial" (131 in FIG. 25)
"Coaxial character information, coaxial average value character information, or coaxial same deviation value character information" (132 in FIG. 25)
“Personal information on the same axis, average person information on the same type on the same axis, or information on the same deviation person on the same axis” (133 in FIG. 25)
"Biological information on the same axis, average value biological information of similar classes on the same axis, or the same deviation value biological information on the same axis" (134 in FIG. 25)
“Object information on the same axis, average value object information on the same type on the same axis, or information on the same deviation value on the same axis” (135 in FIG. 25)
“Coaxial camera shooting status information, coaxial approximate value camera shooting status information, or coaxial deviation value camera shooting status information” (136 in FIG. 25)
“Plane image information excluding the information on the same axis, average image of the approximation on the same axis, plane image information excluding the information, or plane image information excluding the same deviation value on the same axis” (FIG. 25) 137)
“Coaxial“ person recognition information ”, coaxial average value“ person recognition information ”, or coaxial deviation value“ person recognition information ”(215 in FIG. 25).
“Coaxial“ person estimation information ”, coaxial average value“ person estimation information ”, or coaxial deviation value“ person estimation information ”(216 in FIG. 25).
“Coaxial“ control information ”, an average value“ control information ”within the approximate value on the coaxial, or the same deviation value“ control information ”on the coaxial” (217 in FIG. 25), and
“Language information” on the same axis, average value “Language information” within the approximate value on the same axis, or the same deviation value “Language information” on the same axis ”(218 in FIG. 25)
Of which
“Information consisting of one or more, one or more various combinations, or one or more various overlays” (139 in FIG. 25)
Compare information with

「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)を持っている、もしくは、持たされている、
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlarge” (FIG. 25 of 145) “reduction” (146 of FIG. 25) “expansion” (147 of FIG. 25) “compression” (148 of FIG. 25) “equivalent” (149 of FIG. 25) “match” (150 of FIG. 25) “ “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” (155 in FIG. 25) “Intersection” (FIG. 25 156) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) “Separation” (161 in FIG. 25) “ “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Break” 165 in FIG. 25) “Now” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (220 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (FIG. 25 227) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) “East” (232 in FIG. 25), And “unrelated” (168 in FIG. 25),
"Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more" (169 in FIG. 25), or "Process for detecting the same comparison information simultaneously. Information "(170 in FIG. 25), or

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする前記第1〜10のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The stereoscopic image information holding object / image information stereoscopic processing apparatus or the stereoscopic image information processing apparatus according to any one of the first to tenth aspects.

12、本発明の第12の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図39において)
前記第11記載の特徴と同じ特徴を持つことを特徴とする
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報」(図39の188)からなる立体画像情報保持物・画像情報立体化処理装置・立体画像情報処理装置。
12. The twelfth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIG. 39)
“Both-shaped fusion image information” (171 in FIG. 39) characterized by having the same characteristics as those described in the eleventh aspect.
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
Stereo image information holding object / image information stereoscopic processing apparatus / stereo image information processing composed of “one or more, one or more various combinations, or one or more various superimposed image information” (188 in FIG. 39) apparatus.

13、本発明の第13の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図40において)、
「検知される時間軸上の平面画像情報内部の各場面状況情報」(図40の182)から、もしくは、「同時進行」(図40の233)で、
「両形融合画像情報の処理実行」(図40の171)・
「両組融合画像情報の処理実行」(図40の172)・
「両形組融合画像情報の処理実行」(図40の173)・
「両離輻輳融合画像情報の処理実行」(図40の174)・
「画像情報の処理実行」(図40の175)・
「視覚情報の処理実行」(図40の234)・
「聴覚情報の処理実行」(図40の176)・
「嗅覚情報の処理実行」(図40の177)・
「触覚情報の処理実行」(図40の178)・
「味覚情報の処理実行」(図40の179)・
「カメラ類撮影状況情報の処理実行」(図40の235)・
「人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」(図40の236)・
「人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」(図40の237)・
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理実行」
(図40の238)、
および、
「コンピュータプログラム言語情報の処理実行」(図40の239)の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報の処理実行」(図40の180)
「前記処理情報の処理実行を行っている、もしくは、行わされている」(図40の181)
13. The thirteenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIG. 40)
From “each scene situation information inside planar image information on the time axis to be detected” (182 in FIG. 40) or “simultaneous progress” (233 in FIG. 40),
“Processing of bimodal fusion image information” (171 in FIG. 40).
“Process execution of both sets of fused image information” (172 in FIG. 40).
“Process execution of bimodal combination image information” (173 in FIG. 40).
“Execution of processing of both deconvergence fusion image information” (174 in FIG. 40).
“Execute image information processing” (175 in FIG. 40).
“Execute visual information processing” (234 in FIG. 40).
“Perform auditory information processing” (176 in FIG. 40).
“Process execution of olfactory information” (177 in FIG. 40).
“Tactile information processing execution” (178 in FIG. 40)
“Taste information processing execution” (179 in FIG. 40)
“Processing of camera shooting status information” (235 in FIG. 40).
“Personal, regional, and publicly known concept recognition information processing execution that can be recognized by humans” (236 in FIG. 40)
“Perform processing of personal, regional, and publicly known association estimation information that humans can estimate” (237 in FIG. 40).
"Processing execution of processing information for any of control units, control devices, control devices, and control systems"
(238 in FIG. 40),
and,
Of “Processing execution of computer program language information” (239 in FIG. 40),
“Processing execution of processing information consisting of any one or more, one or more various combinations, or one or more various superpositions” (180 in FIG. 40)
“The processing information is being processed or is being performed” (181 in FIG. 40).

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜12のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding object / image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to twelfth aspects.

14、本発明の第14の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図41において)
時間軸上の他の空間情報と通信手段により繋がっていない 独立し、限定され、特定される空間情報(図41の300)は、人が認識できる5感覚情報に還元できる 5感覚情報を その特定空間情報(図41の300)内に情報として保持・保留している。
(以下、本特定空間情報を「A5感空間」(図41の300)と呼称する)
14. A fourteenth image information holding object / image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIG. 41)
It is not connected to other spatial information on the time axis by communication means. Spatial information that is independent, limited, and specified (300 in FIG. 41) can be reduced to five sensory information that can be recognized by humans. It is held and held as information in the spatial information (300 in FIG. 41).
(Hereinafter, this specific space information is referred to as “A5 sense space” (300 in FIG. 41)).

詳細すると
「A5感空間」(図41の300)は、
「A5感空間」(図41の300)内の 時間軸上(過去時間・現在時間・未来時間)のディジタル、もしくは/および、アナログ情報から、構成されるディジタル、もしくは/および、アナログ空間情報領域(図41の302)《以下、「B 虚空領域」(図41の302)と呼称する》、
「A5感空間」(図41の300)内の 時間軸上の実際に存在する空間情報から構成される実在空間情報領域(図41の303)《以下、「C実空領域」(図41の303)と呼称する》、および、
「A5感空間」(図41の300)内の時間軸上に、少なくとも1つ以上、および、同1ヶ所以上で構築される 領域間情報処理情報部(図41の304・342)《以下、「D領間処理部」(図41の304)、もしくは/および、「他のD領間処理部」(図41の342)と呼称する》を内包している。
In detail, “A5 Sense Space” (300 in FIG. 41) is
Digital or / and analog space information area composed of digital or / and analog information on the time axis (past time / current time / future time) in the “A5 sense space” (300 in FIG. 41) (302 in FIG. 41) << Hereafter referred to as “B vacant region” (302 in FIG. 41) >>
Real space information area (303 in FIG. 41) composed of spatial information that actually exists on the time axis in the “A5 sense space” (300 in FIG. 41) << hereinafter referred to as “C real sky area” (in FIG. 41) 303) >>, and
On the time axis in the “A5 sensation space” (300 in FIG. 41), the information processing section between regions (304 and 342 in FIG. 41) constructed with at least one and at least one of the same locations. “D section processing section” (304 in FIG. 41) and / or “other D section processing section” (342 in FIG. 41) are included.

および、
「B虚空領域」(図41の302)「C実空領域」(図41の303)「D領間処理部」(図41の304)、もしくは/および、「他のD領間処理部」(図41の342)は、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合
わせによる各々の間(領域間・処理部間)を
『ディジタル、もしくは/および、アナログ通信による時間軸上の 接触通信類、非
接触通信類、有線通信類、無線通信類、および、ネットワーク通信類の いずれか1
以上と 同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで構築
される通信手段』(図41の340)
(以下、前記『 』内の通信手段を「通信手段A」(図41の340)と呼称する)
で、繋がっている。
and,
“B vacant area” (302 in FIG. 41) “C real sky area” (303 in FIG. 41) “D inter-area processing section” (304 in FIG. 41) or / and “other D inter-area processing section” (342 in FIG. 41) is
Any one or more, one or more various combinations, or one or more various combinations (inter-region / between processing units) between “on the time axis by digital or / and analog communication” Any one of contact communication, non-contact communication, wired communication, wireless communication, and network communication
"Communication means constructed by various combinations of one or more of the above, or by superposition of one or more of the same" (340 in FIG. 41)
(Hereinafter, the communication means in “” will be referred to as “communication means A” (340 in FIG. 41)).
And they are connected.

前記「D領間処理部」(図41の304)は、
前記「通信手段A」(図41の340)を 持ちいて、
「B虚空領域」(図41の302)「C実空領域」(図41の303)、もしくは/お
よび、「他のD領間処理部」(図41の342)間を、交信し、情報処理し、または/お
よび、再交信する。
The “D inter-area processing unit” (304 in FIG. 41)
Having “Communication means A” (340 in FIG. 41),
“B vacant area” (302 in FIG. 41) “C real vacant area” (303 in FIG. 41), or /
And, “other D inter-area processing unit” (342 in FIG. 41) communicates, processes information, and / or communicates again.

また、前記「D領間処理部」(図41の304)は、
前記「通信手段A」(図41の340)を 持ちいて、
当該「A5感空間」(図41の300)と当該「A5感空間」以外の『外の時間軸
上の他の「A5感空間」(図41の300a)』間を、
交信し、情報処理し、または/および、再交信するか、
または、前記行為《当該「A5感空間」以外の「外の時間軸上の他のA5感空間
情報領域」(図41の300a)との交信》を、全く行わない、
のいずれかの形態で、構築されている。
The “D inter-area processing unit” (304 in FIG. 41)
Having “Communication means A” (340 in FIG. 41),
Between the “A5 sensation space” (300 in FIG. 41) and “other“ A5 sensation spaces ”(300a in FIG. 41)” other than the “A5 sensation space”,
Communicate, process information and / or re-communicate,
Or, the act << communication with "other A5 sensation space information area on the outside time axis" (300a in FIG. 41) other than the "A5 sensation space" is not performed at all.
It is constructed in either form.

( 本発明における「交信」とは、
「単方向通信による送信」
「単方向通信による受信」
「双方向通信による送信」
「双方向通信による受信」、および、
「双方向通信による送受信」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重
ね合わせによる通信を 意味する)
("Communication" in the present invention is
"Transmission by one-way communication"
"Reception via unidirectional communication"
"Transmission via two-way communication"
"Reception via two-way communication", and
In “Transmission / reception via bidirectional communication”,
It means communication by any one or more, various combinations of one or more, or combinations of one or more of the same)

つまり、
「A5感空間」(図41の300)は、
時間軸上の他の空間(図41の301)と 「通信手段A」(図41の340)を持ちいて、少なくとも繋がっていない時間軸上の最小独立した「A5感空間」(図41の300)を 1個単位として、
『前記「A5感空間」(図41の300)の1個単位以上』と
『前記「A5感空間」(図41の300)の1個単位以上とは、別の他の「A5感空間」(図41の300a)の1個単位以上』の内、
1以上、同1以上の様々な組み合わせ、および、同1以上の様々な重ね合わせで、
「通信手段A」(図41の340)を持ちいて、時間軸上で、様々に、繋がった(図41の342)空間(図41の300・300a)から、
その少なくとも1部以上、もしくは、全部が、構成されている。
That means
“A5 Sense Space” (300 in FIG. 41) is
It has “communication means A” (340 in FIG. 41) with another space on the time axis (301 in FIG. 41) and is at least not connected to the smallest independent “A5 sense space” (300 in FIG. 41). ) As a unit,
“One unit or more of the“ A5 sense space ”(300 in FIG. 41)” and “one unit or more of the“ A5 sense space ”(300 in FIG. 41) are different“ A5 sense spaces ”. (1 unit or more of 300a in FIG. 41) ”
1 or more, 1 or more of various combinations, and 1 or more of various combinations,
Having “communication means A” (340 in FIG. 41) and variously connected (342 in FIG. 41) on the time axis (300 and 300a in FIG. 41),
At least one part or all of them are configured.

および、
「B虚空領域」(図41の302)「C実空領域」(図41の303)「D領間処理部」(図41の304)、および、「通信手段A」(図41の340)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから 「A5感空間」(図41の300)の少なくとも1部以上、もしくは、多部分が、構成されている。
and,
“B vacant area” (302 in FIG. 41) “C real sky area” (303 in FIG. 41) “D inter-area processing unit” (304 in FIG. 41) and “communication means A” (340 in FIG. 41) Of which
At least one part or multiple parts of “A5 sensation space” (300 in FIG. 41) is configured from any one or more, one or more various combinations, or one or more various combinations. Yes.

および、
「B虚空領域」(図41の302)と「C実空領域」(図41の303)は、「各領域」同士が、少なくとも1部以上、もしくは、多部分で、重層(図41の302と303の重なり部分)している。
and,
The “B vacant area” (302 in FIG. 41) and the “C actual vacant area” (303 in FIG. 41) are composed of at least one part or multiple parts of each area, and are overlapped (302 in FIG. 41). And the overlap part of 303).

および、
『「D領間処理部」(図41の342)の全部が、「B虚空領域」(図41の302)「C実空領域」(図41の303)の「各領域」から、独立している』か、もしくは、
『「D領間処理部」(図41の304)の少なくとも1部以上、もしくは、全部が、「B虚空領域」(図41の302)「C実空領域」(図41の303)の何れかの「各領域」の、少なくとも1部以上 から全部までの間で、重層(図41の302、303、304の各重なり部分)している』か の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで構成されている「A5感空間」(図41の300)である。
以上のような「A5感空間」(図41の300)であるとき、
and,
“All of the“ D inter-area processing units ”(342 in FIG. 41) are independent of“ areas ”in“ B imaginary area ”(302 in FIG. 41) and“ C real sky area ”(303 in FIG. 41). Or
“At least one part or all of the“ D inter-area processing unit ”(304 in FIG. 41) is one of“ B imaginary area ”(302 in FIG. 41) and“ C real area ”(303 in FIG. 41). In these “regions”, at least one part to all of them are overlaid (overlapping portions 302, 303, and 304 in FIG. 41).
This is an “A5 sensation space” (300 in FIG. 41) configured by any one or more, various combinations of the same one or more, or various superpositions of the same one or more.
When the “A5 feeling space” (300 in FIG. 41) is as described above,

図42において、
「B虚空領域」(図42の302)は、
「同領域」内の 時間軸上のディジタル、もしくは/および、アナログ空間情報領域(図
42の302)内部に、
「B処理群」(図42の337)、「B進入群」(図42の338)、「B表示群」(図42の339)、および、「B進出群」(図42の340)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「B虚空領域」(図42の302)の1部以上、もしくは、全部が、構成されている。
In FIG.
“B void area” (302 in FIG. 42)
In the digital or / and analog space information area (302 in FIG. 42) on the time axis in the “same area”,
“B treatment group” (337 in FIG. 42), “B approach group” (338 in FIG. 42), “B display group” (339 in FIG. 42), and “B advance group” (340 in FIG. 42). Of which
One or more, or one or more of the above-mentioned one or more combinations, or one or more of the various overlay information, constitute one or more or all of the “B imaginary region” (302 in FIG. 42). Yes.

「B虚空領域」(図42の302)内の「B処理群」(図42の337)は、
「B虚空領域」(図42の302)内の ディジタル、も しくは/および、アナログ空間情報領域(図42の302)内に、時間軸上に存在する情報同士の様々な処理情報(図42の343・344・345・346・347)を 含んでいる。
The “B processing group” (337 in FIG. 42) in the “B emptiness region” (302 in FIG. 42) is:
Various processing information (FIG. 42) between information existing on the time axis in the digital and / or analog space information area (302 in FIG. 42) in the “B emptiness region” (302 in FIG. 42). 343, 344, 345, 346, 347).

従って、「B処理群」(図42の337)とは、
詳細すると
「B虚空領域」(図42の302)内の
「通信手段A」(図42の340)を 持ちいて、「同領域」(図42の302)内に、時間軸上で存在する情報群(図42の343・344・345・346・347) が、「同領域」(図42の302)内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部(図42の347)で、交信し、情報処理し、もしくは/および、他の情報処理部(図42の352・357・362)と交信(図42の340と342)されることになる。
Therefore, the “B processing group” (337 in FIG. 42) is
In detail, in the “B void area” (302 in FIG. 42)
A group of information (343, 344, 345, 346, and 347 in Fig. 42) that has "communication means A" (340 in Fig. 42) and exists in the "same area" (302 in Fig. 42) on the time axis. However, at least one or more in the same area (302 in FIG. 42) and one or more information processing units (347 in FIG. 42) communicate, process information, and / or other Communication is performed with the information processing units (352, 357, and 362 in FIG. 42) (340 and 342 in FIG. 42).

または、前記交信のために 必要な 時間軸上の
ディジタル、もしくは/および、アナログ平面画像情報群
《以下、「E処理画群」(図42の343)と呼称する》・
Alternatively, digital on the time axis necessary for the communication or / and analog plane image information group << hereinafter referred to as "E processing image group" (343 in FIG. 42) >>

同ディジタル、もしくは/および、アナログ5感覚情報群(視覚情報・触覚情報・嗅覚 情
報・味覚情報・聴覚情報)《以下、「F処理5感群」(図42の344)と呼称する》・
Digital or / and analog 5 sensory information group (visual information, tactile information, olfactory information, taste information, auditory information) << hereinafter referred to as "F treatment 5 sense group" (344 in FIG. 42) >>

同人が認識できる 私的・地域的・公知的 ディジタル、もしくは/および、アナログ概 念
認識情報群《以下、「G処理認識群」(図42の345)と呼称する》・
Private, regional, publicly known digital and / or analog concept recognition information group that can be recognized by the same person (hereinafter referred to as “G processing recognition group” (345 in FIG. 42)).

同人が推定できる 私的・地域的・公知的 ディジタル、もしくは/および、アナログ連
想推定情報群《以下、「H処理推定群」(図42の346)と呼称する》、
Private, regional, publicly known digital and / or analog associative estimation information group << hereinafter referred to as "H processing estimation group" (346 in Fig. 42) >>

および、前記情報処理部で、「同領域」内部で交信し、情報、情報処理を情報処理し、も
しくは/および、他の情報処理部(図42の352・357・362)と交信(図42 の
340と342)するために必要なディジタル、もしくは/および、アナログ処理用処
理情報群《以下、「I処理処理群」(図42の347)と呼称する》の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を含んでいる。
The information processing unit communicates within the “same area” to process information and information processing, and / or communicates with other information processing units (352, 357, and 362 in FIG. 42) (FIG. 42). 340 and 342) of digital and / or analog processing information group << referred to as "I processing processing group" (347 in FIG. 42) >>]
Any one or more, one or more various combinations, or one or more various overlay information are included.

および、
「B虚空領域」(図42の302)内の「B進入群」(図42の338)は、
「B虚空領域」(図42の302)内の、「当該B虚空領 域」(図42の302)以外の 外のディジタル、もしくは/および、アナログ空間情報領 域(図42の308)から 各々進入してくる情報(図42の348・349・350・351・352)を 含んでいる。
and,
The “B approach group” (338 in FIG. 42) in the “B emptiness region” (302 in FIG. 42) is
From the digital or / and analog space information area (308 in FIG. 42) other than “the B void area” (302 in FIG. 42) in the “B void area” (302 in FIG. 42), respectively. Incoming information (348, 349, 350, 351, 352 in FIG. 42) is included.

従って、「B進入群」(図42の338)とは、
詳細すると
「B虚空領域」(図42の302)内の「通信手段A」(図42の340)と、「当該B虚空領域」以外(図42の308)の「通信手段A」(図42の340)が 繋がり、「同領域」(図42の302)内へ「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」(図42の308)、または/および、同「実在空間情報領域」(図42の308)から、「同領域」(図42の302)内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部(図42の352)で、交信し、情報処理し、情報進入させ、もしくは/および、他の情報処理部(図42の347・357・362・308内部の情報処理部)と交信(図42の340と342)されることになる。
Therefore, the “B approach group” (338 in FIG. 42) is
More specifically, “communication means A” (340 in FIG. 42) in the “B emptiness area” (302 in FIG. 42) and “communication means A” (FIG. 42, 308) other than “the B emptiness area” (FIG. 42). 340) are connected, and “digital or / and analog spatial information area” (308 in FIG. 42) other than “same area” (308 in FIG. 42) or / and the same Communication from at least one information processing unit (352 in FIG. 42) within the “real space information area” (308 in FIG. 42) to at least one in the same area (302 in FIG. 42). Information processing, information entry, and / or communication with other information processing units (information processing units in 347, 357, 362, and 308 in FIG. 42) (340 and 342 in FIG. 42). Become.

または、前記交信のために必要な時間軸上の
進入ディジタル、もしくは/および、アナログ平面画像情報群
《以下、「J進入画群」(図42の348)と呼称する》・
Or, the digital approach and / or analog plane image information group on the time axis necessary for the communication << hereinafter referred to as "J approach picture group" (348 in FIG. 42) >>

前記以外の同進入ディジタル、もしくは/および、アナログ5感覚情報群(視覚情報・ 触
覚情報・嗅覚情報・味覚情報・聴覚情報)
《以下、「K進入5感群」(図42の349)と呼称する》・
Other than the above entry digital or / and analog 5 sensory information group (visual information, tactile information, olfactory information, taste information, auditory information)
<< Hereafter referred to as "K approach 5 sense group" (349 in FIG. 42) >>

同人が認識できる 私的・地域的・公知的 進入ディジタル、もしくは/および、アナロ グ
概念認識情報群
(以下、「L進入認識群」(図42の350)と呼称する)・
Private, regional and publicly accessible approach digital and / or analog concept recognition information group (hereinafter referred to as “L approach recognition group” (350 in FIG. 42))

同人が推定できる 私的・地域的・公知的 進入ディジタル、もしくは/および、アナロ グ
連想推定情報群
(以下、「M進入推定群」(図42の351)と呼称する)、および、
Private, regional and public approach digital or / and analog associative estimation information group (hereinafter referred to as “M approach estimation group” (351 in FIG. 42)) that can be estimated by the same person, and

前記情報処理部で、交信し、情報、処理情報を情報処理し、情報進入させ、もしくは/
および、他の情報処理部(図42の347・357・362・308内部の情報処理部)
と交信(図42の340と342)するために必要なディジタル、もしくは/および、
アナログ処理用処理情報群
(以下、「N進入処理群」(図42の352)と呼称する)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報も、含んでいる。
The information processing unit communicates, processes information and processing information, enters information, and / or
And other information processing units (information processing units inside 347, 357, 362, 308 in FIG. 42)
And / or the digital required to communicate with (340 and 342 in FIG. 42)
Of the processing information group for analog processing (hereinafter referred to as “N approach processing group” (352 in FIG. 42)),
Any one or more, various combinations of the same one or more, or one or more of various overlay information are also included.

またおよび、
「B虚空領域」(図42の302)の「B表示群」(図42の339)は、
「A5感空間」(図42の300)内に構築され、特定される表示面類(図42の309)上に、時間軸上で、表示される、特定表示情報(図42の353・354・355・356・357)を 含んでいる。
And
The “B display group” (339 in FIG. 42) of the “B emptiness region” (302 in FIG. 42) is:
42. Specific display information (353 and 354 in FIG. 42) displayed on the time axis on the display surface (309 in FIG. 42) constructed and specified in the “A5 sense space” (300 in FIG. 42). · 355 · 356 · 357).

従って、「B表示群」(図42の339)とは、
詳細すると
内の「通信手段A」(図42の340)で、「A5感空間」(図42の300)内の 特定される表示面類(図42の309)上に、「通信手段A」(図42の340)を持ちいて、交信し、時間軸上で、表示させることになる「B虚空領域」(図42の302)内の少なくとも1つ以上、および、同1ヶ所以上の 情報処理部(図42の357)が、交信し、情報処理し、情報表示させ、もしくは/および、他の情報処理部(図42の347・352・362)と交信(図42の340と342)されることになる。
Therefore, the “B display group” (339 in FIG. 42) is
More specifically, in “Communication means A” (340 in FIG. 42), “Communication means A” is displayed on the specified display surface (309 in FIG. 42) in “A5 sense space” (300 in FIG. 42). (340 in FIG. 42), communicate with each other, and display on the time axis at least one in the “B emptiness area” (302 in FIG. 42) and one or more information processing 42 (357 in FIG. 42) communicates, processes information, displays information, and / or communicates with other information processing units (347, 352, 362 in FIG. 42) (340 and 342 in FIG. 42). It will be.

または、前記交信、同情報表示のために必要な 特定された表示面類(図42の309)
上に、時間軸上の同表示された、同表示する、同表示している、同表示すべき、および、
同表示予定の各特定表示ディジタル、もしくは/および、アナログ平面画像情報群
《以下、「O表示画群」(図42の353)と呼称する》・
Or the specified display surface necessary for the communication and information display (309 in FIG. 42)
Above, same on the time axis, same display, same display, same display, and
Each specific display digital or / and analog plane image information group scheduled to be displayed (hereinafter referred to as “O display image group” (353 in FIG. 42))

前記以外の同特定表示ディジタル、もしくは/および、アナログ5感覚情報群(視覚情
報・触覚情報・嗅覚情報・味覚情報・聴覚情報)
《以下、「P表示5感群」(図42の354)と呼称する》・
Other than the above specific display digital or / and analog 5 sensory information group (visual information
Information, tactile information, olfactory information, taste information, auditory information)
<< Hereafter referred to as "P display 5 sense groups" (354 in FIG. 42) >>

同人が認識できる 私的・地域的・公知的 特定表示ディジタル、もしくは/および、ア
ナログ概念認識情報群 《以下、「Q表示認識群」(図42の355)と呼称する》・
Private, regional, and publicly-recognizable specific display digital or / and analog concept recognition information group << hereinafter referred to as "Q display recognition group" (355 in FIG. 42) >>

同人が推定できる 私的・地域的・公知的 特定表示ディジタル、もしくは/および、ア
ナログ連想推定情報群 《以下、「R表示推定群」(図42の356)と呼称する》
Private, regional, publicly known specific display digital or / and analog associative estimation information group << hereinafter referred to as "R display estimation group" (356 in FIG. 42) >>

および、前記情報処理部で、交信し、情報、処理情報を情報処理し、情報表示し、
もしくは/および、他の情報処理部(図42の347・352・362)と交信(図4
2の340と342)するために必要なディジタル、もしくは/および、アナログ処理
用処理情報群《以下、「S表示処理群」(図42の357)と呼称する》の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ
情報も、含んでいる。
And in the information processing section, communicate, information, process information, information display,
Or / and communication with other information processing units (347, 352, 362 in FIG. 42) (FIG. 4)
2 of 340 and 342) required for the digital or / and analog processing information group << hereinafter referred to as "S display processing group" (357 in FIG. 42) >>
Any one or more, various combinations of the same one or more, or one or more of various overlay information are also included.

またおよび、
「B虚空領域」(図42の302)内の「B進出群」(図42の340)は、
「B虚空領域」(図42の302)内の ディジタル、もしくは/および、アナログ空間情報領域(図42の302)内から 「当該B虚空領域」外(図42の308)へ進出して行く情報(図42の358・359・360・361・362)を 含んでいる。
And
The “B advance group” (340 in FIG. 42) in the “B emptiness region” (302 in FIG. 42) is:
Information that advances from the digital or / and analog space information area (302 in FIG. 42) in the “B emptiness area” (302 in FIG. 42) to the outside of the “B emptiness area” (308 in FIG. 42). (358, 359, 360, 361, and 362 in FIG. 42).

従って、「B進出群」(図42の340)とは、
詳細すると
「B虚空領域」(図42の302)内と、時間軸上の「当該B虚空領域」外(図42の308)の 各「通信手段A」(図42の340)が繋がり、「同領域」(図42の302)内から 「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」(図42の308)、または、/および、同「実在空間領域」(図42の308)へ、「同領域」(図42の302)内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部(図42の362)と、交信され、情報処理し、情報進出し、、または/および、他の情報処理部(図42の347・352・357・308内部の情報処理部)と交信(図42の340と342)されることになる。
Therefore, the “B advance group” (340 in FIG. 42) is
Specifically, the “communication means A” (340 in FIG. 42) outside the “B empty space area” (302 in FIG. 42) on the time axis is connected to the “communication means A” (340 in FIG. 42). From the same area "(302 in FIG. 42), an external" digital or / and analog space information area "(308 in FIG. 42) other than" the same area "or / and the" real space area "( 308) in FIG. 42 communicates with at least one or more information processing units (362 in FIG. 42) in the same area (302 in FIG. 42) and one or more information processing units (362 in FIG. 42) to process information. It advances and / or communicates with other information processing units (information processing units in 347, 352, 357, and 308 in FIG. 42) (340 and 342 in FIG. 42).

または、前記交信、情報進出のために必要な時間軸上の
進出ディジタル、もしくは/および、アナログ平面画像情報群
《以下、「T進出画群」(図42の358)と呼称する》・
Alternatively, advance digital on the time axis necessary for the communication and information advance, and / or analog plane image information group << hereinafter referred to as "T advance picture group" (358 in FIG. 42) >>

前記以外の同進出ディジタル、もしくは/および、アナログ5感覚情報群
(視覚情報・触覚情報・嗅覚情報・味覚情報・聴覚情報)
《以下、「U進出5感群」(図42の359)と呼称する》・
Other than the above digital advancement and / or analog 5 sensory information group (visual information, tactile information, olfactory information, taste information, auditory information)
<< Hereafter referred to as "U Advance 5 Sensation Group" (359 in FIG. 42) >>

同人が認識できる 私的・地域的・公知的 進出ディジタル、もしくは/および、アナロ
グ概念認識情報群
《以下、「V進出認識群」(図42の360)と呼称する》・
Private, regional, and publicly recognized advancement digital and / or analog concept recognition information group << hereinafter referred to as "V advancement recognition group" (360 in FIG. 42) >>

人が推定できる 私的・地域的・公知的 進出ディジタル、もしくは/および、アナログ
連想推定情報群
《以下、「W進出推定群」(図42の361)と呼称する》
Private, regional, and publicly-established advancement digital or / and analog associative estimation information group << hereinafter referred to as "W advancement estimation group" (361 in FIG. 42) >>

および、前記情報処理部で、情報、処理情報を情報処理し、情報進出させ、または/および、
他の情報処理部(図42の347・352・357・308内部の情報処理部)と交信(図42の340と342)するために必要なディジタル、もしくは/および、アナログ処理用処理情報群《以下、「X進出処理群」(図42の362)と呼称する》の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報も、含んでいる。
And the information processing unit processes information and processing information, advances information, and / or
Digital or / and analog processing information group necessary for communication (340 and 342 in FIG. 42) with other information processing units (information processing units in 347, 352, 357, and 308 in FIG. 42) << Hereinafter, the “X advance processing group” (referred to as 362 in FIG. 42) >>
Any one or more, various combinations of the same one or more, or one or more of various overlay information are also included.

また、図43において、
「C実空領域」(図43の303)は、
「同領域」内の 時間軸上の実際に存在する空間情報(図43の303)内部に、
「Y 観察画群」(図43の310)、「Z観測5感群」(図43の317)、および、「処
理情報作動用実在空間情報群」(図43の334)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わ
せ情報で、「C実空領域」(図43の303)の1部以上、もしくは、全部が、構成されている。
In FIG.
“C real sky region” (303 in FIG. 43) is
In the spatial information that actually exists on the time axis in “same area” (303 in FIG. 43),
Among the “Y observation image group” (310 in FIG. 43), “Z observation five sense groups” (317 in FIG. 43), and “real space information group for processing information operation” (334 in FIG. 43),
One or more of the above, one or more of the various combinations, or one or more of the various superposition information constitute one or more or all of the “C real sky region” (303 in FIG. 43). ing.

またおよび、
「C実空領域」(図43の303)内の「Y 観察画群」(図43の310)は、
「C実空領域」(図43の303)内の 時間軸上に、実際に存在する空間情報
(図43の303)内部を、
極めて簡単な例である空間観察用撮影カメラ類で、撮影し、観察することにより得られる平面画像情報
(図43の311・312・313・314・315)を 含んでいる。
And
The “Y observation image group” (310 in FIG. 43) in the “C real sky region” (303 in FIG. 43) is
On the time axis in “C real sky region” (303 in FIG. 43), the space information (303 in FIG. 43) that actually exists
It includes plane image information (311, 312, 313, 314, and 315 in FIG. 43) obtained by photographing and observing with an imaging camera for space observation, which is a very simple example.

従って、「Y 観察画群」(図43の310)とは、
詳細すると
「C実空領域」内の 時間軸上の特定される実際に存在する空間情報(図43の303)
内部において、
前記極めて簡単な例である空間観察用撮影カメラ類で、撮影し、観察することにより得られる
平面画像情報(図43の311・312・313・314・315)を
「通信手段A」(図43の340)を 持ちいて、
「同領域」(図43の303)内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処
理部(図43の310内部の316)で、交信し、情報処理され、もしくは/および、他
の情報処理部(図43の323・当該310以外の情報処理部)と交信することを含む。
Therefore, the “Y observation image group” (310 in FIG. 43) is
In detail, the spatial information that actually exists on the time axis in the “C real sky region” (303 in FIG. 43)
Inside,
Plane image information (311, 312, 313, 314, and 315 in FIG. 43) obtained by photographing and observing with the above-described extremely simple example of the imaging camera for space observation is “communication means A” (FIG. 43). 340)
At least one or more in the “same area” (303 in FIG. 43) and one or more information processing units (316 in 310 in FIG. 43) communicate and process information or / and others Communication information processing units (information processing units other than 323 in FIG. 43 and 310).

または、前記交信のために 必要な 時間軸上の各
カメラ類で 観察された実在空間情報(図43の303)が、保持している平面画像情報群(図43の311)・
Or, the real space information (303 in FIG. 43) observed by each camera on the time axis necessary for the communication is a plane image information group (311 in FIG. 43)

同カメラ類で 観察する実在空間情報(図43の303)が、保持している平面画像情報群(図43の312)・   The real space information (303 in FIG. 43) observed by the cameras is the plane image information group (312 in FIG. 43)

同カメラ類で 観察している実在空間情報(図43の303)が、保持している平面画像情報群(図43の313)・   The real space information (303 in FIG. 43) observed by the cameras is the plane image information group (313 in FIG. 43)

同カメラ類で、観察すべき実在空間情報(図43の303)が、保持している平面画像情報群(図43の314)・   With the same cameras, the real space information to be observed (303 in FIG. 43) holds the plane image information group (314 in FIG. 43).

同カメラ類で 観察予定の実在空間情報(図43の303)が、保持している平面画像情報群(図43の315)、   The real space information (303 in FIG. 43) scheduled to be observed by the cameras is a plane image information group (315 in FIG. 43),

および、同カメラ類の 実在空間情報(図43の303)観察で得られる平面画像情報群(図43の311・312・313・314・315)と交信し、情報処理し、もしくは/および、他の情報処理部(図43の323・当該310以外の情報処理部)と交信するために必要なディジタル、もしくは/および、アナログ処理用処理情報群(図43の316)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を 含む。
And communicate with the plane image information group (311, 312, 313, 314, and 315 in FIG. 43) obtained by observation of the real space information (303 in FIG. 43) of the same camera, process information, and / or others Digital information and / or analog processing information group (316 in FIG. 43) necessary for communicating with the information processing unit (323 in FIG. 43 and other information processing units in FIG. 43),
Any one or more, various combinations of the same one or more, or one or more of various overlay information are included.

またおよび、
「C実空領域」(図43の303)内の「Z観測5感群」(図43の317)は、
「C実空領域」が、前記観察される時間軸上の実際に存在する空間情報
(図43の303)内部に、
「Y観察画群」(図43の310)以外の5感覚情報(視覚情報・触覚情報・嗅覚情報・味
覚情報・聴覚情報)を 同時に保持しているため、5感覚計測センサー類(図43の33
6)により 計測され、観測獲得され、照合認識などの 情報処理が行われる5感覚情報(図
43の318・319・320・321・322)を含んでいる。
And
Z observation 5 sense groups” (317 in FIG. 43) in the “C real sky region” (303 in FIG. 43) is
The “C real sky region” is actually present in spatial information (303 in FIG. 43) on the observed time axis.
Since five sensory information (visual information, tactile information, olfactory information, taste information, auditory information) other than the “Y observation image group” (310 in FIG. 43) is simultaneously held, five sensor measurement sensors (FIG. 43) 33
6) 5 sensory information (318, 319, 320, 321, and 322 in FIG. 43) that is measured, acquired by observation, and subjected to information processing such as collation recognition is included.

従って、「Z観測5感群」(図43の317)とは、
詳細すると
「C実空領域」内の 時間軸上の特定される実際に存在する空間情報(図43の303)
内部において、
5感覚計測センサー類により 計測し、観測獲得する5感覚情報(図43の318・319・320・321・322)を
「通信手段A」(図43の340)を 持ちいて、
「同領域群」(図43の303)内の 少なくとも1つ以上、および、同1ヶ所以上の 情
報処理部(図43の317内部の323)と、交信し、情報処理され、もしくは/お
よび、他の情報処理部(図43の316・当該317以外の情報処理部)と交信する
ことを 含む。
Therefore, “Z observation 5 sense groups” (317 in FIG. 43) is
In detail, the spatial information that actually exists on the time axis in the “C real sky region” (303 in FIG. 43)
Inside,
Five sensory information (318, 319, 320, 321, and 322 in Fig. 43) measured and acquired by five sensor sensors
Have "Communication means A" (340 in Fig. 43)
Communicate and process information with at least one or more of the same region group (303 in FIG. 43) and one or more information processing units (323 in 317 in FIG. 43), and / or It includes communicating with other information processing units (information processing units other than 316 and 317 in FIG. 43).

または、前記交信のために 必要な 時間軸上の各
前記計測センサー類で 観測された実在空間情報(図43の303)が、保持している5感覚情報群(図43の318)・
Or, the real space information (303 in FIG. 43) observed by each of the measurement sensors on the time axis necessary for the communication includes the five sensory information groups (318 in FIG. 43)

同計測センサー類で 観測する実在空間情報(図43の303)が、保持している5感覚情報群(図43の319)・   The real space information (303 in FIG. 43) observed by the measurement sensors is stored in the 5 sensory information groups (319 in FIG. 43)

同計測センサー類で 観測している実在空間情報(図43の303)が、保持している5感覚情報群(図43の320)・   The real space information (303 in FIG. 43) observed by the measurement sensors is stored in 5 sensory information groups (320 in FIG. 43).

同計測センサー類で 観測すべき実在空間情報(図43の303)が、保持している5感覚情報群(図43の321)・   The real space information (303 in FIG. 43) to be observed by the sensors is the 5 sensory information group (321 in FIG. 43)

同計測センサー類で 観測予定の実在空間情報(図43の303)が、保持している5感覚情報群(図43の322)、 The real space information (303 in FIG. 43) to be observed by the measurement sensors is stored in the five sensory information groups (322 in FIG. 43),

および、同計測センサー類の実在空間情報(図43の303)観測で得られる5感覚情報群(図43の318・319・320・321・322)と交信し、情報処理し、もしくは/および、他の情報処理部(図43の316・当該310以外の情報処理部)と交信するために必要なディジタル、もしくは/および、アナログ処理用処理情報群(図43の323)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を 含んでいる。
And communication with the five sensory information groups (318, 319, 320, 321, and 322 in FIG. 43) obtained by observation of the real space information (303 in FIG. 43) of the measurement sensors, and / or Of the digital or / and analog processing information group (323 in FIG. 43) necessary to communicate with other information processing units (316 in FIG. 43 and other information processing units in FIG. 43),
It contains any one or more, various combinations of the same one or more, or one or more of various overlay information.

またおよび、
図41、42、43において、
「C実空領域」(図43の303)内の「処理情報作動用実在空間情報群」(図43の334)とは、
「C実空領域」(図43の303)内の 時間軸上の実際に存在する空間情報(図43の
303)内部に、前記観察の「Y観察画群」(図43の310)、前記観測の「Z観測5
感群」(図43の317)以外に、制御情報などの処理情報
And
41, 42 and 43,
The “real space information group for processing information operation” (334 in FIG. 43) in the “C real sky region” (303 in FIG. 43) is:
In the space information (303 in FIG. 43) that actually exists on the time axis in the “C real sky region” (303 in FIG. 43), the “Y observation image group” (310 in FIG. 43) of the observation, “Z Observation 5”
Processing information such as control information in addition to “feeling group” (317 in FIG. 43)

(図41の304の処理情報・図42の347、352、357、362の各処理情
報・図42の308内部の処理情報部の処理情報・図43の314、323の各処理
情報・その他の情報処理部の処理情報の内、何れか1以上の 様々な組み合わせからな
る処理情報)
(Processing information 304 in FIG. 41, processing information 347, 352, 357, and 362 in FIG. 42, processing information in the processing information section 308 in FIG. 42, processing information in 314 and 323 in FIG. 43, etc. (Processing information consisting of various combinations of one or more of the processing information of the information processing section)

が、実在空間情報(図43の303)内部で、稼動、
もしくは、作動するために必要な処理情報作動用の実在空間情報(図43の334)を 含んだものである。
Is operated in the real space information (303 in FIG. 43),
Alternatively, it includes real space information (334 in FIG. 43) for processing information operation necessary for operation.

以上述べたことを まとめると、図41、42、43において、   To summarize the above, in FIGS.

「A5感空間」(図41の300)は、
時間軸上の他の空間(図41の301)と 「通信手段A」(図41の340)を持ちいて、少なくとも繋がっていない時間軸上の最小独立した「A5感空間」(図41の300)を 1個単位として、
『前記「A5感空間」(図41の300)の1個単位以上』と
『前記「A5感空間」(図41の300)の1個単位以上とは、別の他の「A5感空間」(図41の300a)の1個単位以上』の内、
1以上、同1以上の様々な組み合わせ、および、同1以上の様々な重ね合わせで、
「通信手段A」(図41の340)を持ちいて、時間軸上で、様々に、繋がった(図41の342)空間(図41の300・300a)から、
その少なくとも1部以上、もしくは、全部が、構成されている。
“A5 Sense Space” (300 in FIG. 41) is
It has “communication means A” (340 in FIG. 41) with another space on the time axis (301 in FIG. 41) and is at least not connected to the smallest independent “A5 sense space” (300 in FIG. 41). ) As a unit,
“One unit or more of the“ A5 sense space ”(300 in FIG. 41)” and “one unit or more of the“ A5 sense space ”(300 in FIG. 41) are different“ A5 sense spaces ”. (1 unit or more of 300a in FIG. 41) ”
1 or more, 1 or more of various combinations, and 1 or more of various combinations,
Having “communication means A” (340 in FIG. 41) and variously connected (342 in FIG. 41) on the time axis (300 and 300a in FIG. 41),
At least one part or all of them are configured.

および、
「B虚空領域」(図41の302)「C実空領域」(図41の303)「D領間処理部」(図41の304)、および、「通信手段A」(図41の340)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから 「A5感空間」(図41の300)の少なくとも1部以上、もしくは、多部分が、構成されている。
and,
“B vacant area” (302 in FIG. 41) “C real sky area” (303 in FIG. 41) “D inter-area processing unit” (304 in FIG. 41) and “communication means A” (340 in FIG. 41) Of which
At least one part or multiple parts of “A5 sensation space” (300 in FIG. 41) is configured from any one or more, one or more various combinations, or one or more various combinations. Yes.

および、
「B虚空領域」(図41の302)と「C実空領域」(図41の303)は、「各領域」同士が、少なくとも1部以上、もしくは、多部分で、重層(図41の302と303の重なり部分)している。
and,
The “B vacant area” (302 in FIG. 41) and the “C actual vacant area” (303 in FIG. 41) are composed of at least one part or multiple parts of each area, and are overlapped (302 in FIG. 41). And the overlap part of 303).

および、
『「D領間処理部」(図41の342)の全部が、「B虚空領域」(図41の302)「C実空領域」(図41の303)の「各領域」から、独立している』か、もしくは、
『「D領間処理部」(図41の304)の少なくとも1部以上、もしくは、全部が、「B虚空領域」(図41の302)「C実空領域」(図41の303)の何れかの「各領域」
and,
“All of the“ D inter-area processing units ”(342 in FIG. 41) are independent of“ areas ”in“ B imaginary area ”(302 in FIG. 41) and“ C real sky area ”(303 in FIG. 41). Or
“At least one part or all of the“ D inter-area processing unit ”(304 in FIG. 41) is one of“ B imaginary area ”(302 in FIG. 41) and“ C real area ”(303 in FIG. 41). "Each area"

《「B虚空領域」(図42の302)内のB処理群(図42の337)、N進入処理群
(図42の352)、S表示処理群(図42の357)、X進出処理群(図42の3
62)、
「C実空領域」(図43の303)内のY観察画群(図43の310)の「ディジ
タル、もしくは/および、アナログ処理用処理情報群」(図43の316)、Z観
測5感群(図43の317)の「ディジタル、もしくは/および、アナログ処理
用処理情報群」(図43の323)、「処理情報作動用実在空間情報群」(図43の
334)内の情報処理部、および、
その他の同領域内「情報処理部」(図41の304)の内、
いずれか1以上と1以上の様々な組み合わせ、もしくは、同様の様々な重ね合わせか
らなる各領域》
<< B processing group (337 in FIG. 42), N approach processing group (352 in FIG. 42), S display processing group (357 in FIG. 42), X advance processing group in the “B emptiness region” (302 in FIG. 42) (3 in FIG.
62),
“Digital or / and analog processing information group” (316 in FIG. 43) of the Y observation image group (310 in FIG. 43) in the “C real sky region” (303 in FIG. 43), Z observation “Digital or / and analog processing” of 5 sense groups (317 in FIG. 43)
Processing information group ”(323 in FIG. 43), an information processing unit in“ real space information group for processing information operation ”(334 in FIG. 43), and
Among other “information processing units” (304 in FIG. 41) in the same area,
Each region consisting of any one or more and one or more various combinations or similar various overlays >>

内の、少なくとも1部以上 から全部までの間で、重層(図41の302、303、304の各重なり部分)している』か の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで構成されている「A5感空間」(図41の300)である。
Of at least one part to all of them (overlapping portions 302, 303, and 304 in FIG. 41) ”
This is an “A5 sensation space” (300 in FIG. 41) configured by any one or more, various combinations of the same one or more, or various superpositions of the same one or more.

図42において、
「B虚空領域」(図42の302)は、
「B処理群」(図42の337)、「B進入群」(図42の338)、「B表示群」(図42の339)、および、「B進出群」(図42の340)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「B虚空領域」(図42の302)の1部以上、もしくは、全部が、構成されている。
In FIG.
“B void area” (302 in FIG. 42)
“B treatment group” (337 in FIG. 42), “B approach group” (338 in FIG. 42), “B display group” (339 in FIG. 42), and “B advance group” (340 in FIG. 42). Of which
One or more, or one or more of the above-mentioned one or more combinations, or one or more of the various overlay information, constitute one or more or all of the “B imaginary region” (302 in FIG. 42). Yes.

図43において、
「C実空領域」(図43の303)は、
「同領域」内の 時間軸上の実際に存在する空間情報(図43の303)内部に、
「Y 観察画群」(図43の310)、「Z観測5感群」(図43の317)、および、「処
理情報作動用実在空間情報群」(図43の334)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わ
せ情報で、「C実空領域」(図43の303)の1部以上、もしくは、全部が、構成されている。
In FIG.
“C real sky region” (303 in FIG. 43) is
In the spatial information that actually exists on the time axis in “same area” (303 in FIG. 43),
Among the “Y observation image group” (310 in FIG. 43), “Z observation five sense groups” (317 in FIG. 43), and “real space information group for processing information operation” (334 in FIG. 43),
One or more of the above, one or more of the various combinations, or one or more of the various superposition information constitute one or more or all of the “C real sky region” (303 in FIG. 43). ing.

図41において、
「D領間処理部」(図41の304)は、
「通信手段A」(図41の340)を 持ちいて、
「B虚空領域」(図41の302)「C実空領域」(図41の303)、もしくは/およ
び、「他のD領間処理部」(図41の342)間を、交信し、情報処理し、または/
および、再交信する。
In FIG.
The “D inter-area processing unit” (304 in FIG. 41)
Having “Communication means A” (340 in FIG. 41)
Communicate between “B vacant area” (302 in FIG. 41), “C real sky area” (303 in FIG. 41), and / or “other D inter-area processing unit” (342 in FIG. 41). , Information processing, or /
And re-communication.

また、「D領間処理部」(図41の304)は、
「通信手段A」(図41の340)を 持ちいて、
当該「A5感空間」(図41の300)と当該「A5感空間」以外の「外の時間軸
上の他の「A5感空間」(図41の300a)間を、
交信し、情報処理し、または/および、再交信するか、
または、前記行為《当該「A5感空間」以外の「外の時間軸上の他の「A5感空
間」(図41の300a)との交信》を、全く行わない
のいずれかの形態で、
構築されている。
In addition, the “D inter-area processing unit” (304 in FIG. 41)
Having “Communication means A” (340 in FIG. 41)
Between the “A5 sensation space” (300 in FIG. 41) and “other A5 sensation spaces” (300a in FIG. 41) other than the “A5 sensation space”,
Communicate, process information and / or re-communicate,
Or, in the form of any one of the above-mentioned actions << not communicating with other "A5 sense spaces" (300a in FIG. 41) other than the "A5 sense spaces"] at all,
Has been built.

以上述べた様な、条件下において、
図44において、
前記「A5感空間」(図44の300)内部に存在する
「音情報」(図44の122)・
「文字情報」(図44の123)・
「人情報」(図44の124)・
「生物情報」(図44の125)・
「物情報」(図44の126)・
「カメラ類撮影状況情報」(図44の127)・
「前記情報を除いた平面画像情報」(図44の128)・
「視覚計測センサー類で観測される情報」(図44の244)・
「聴覚計測センサー類で観測される情報」(図44の245)・
「嗅覚計測センサー類で観測される情報」(図44の246)・
「味覚計測センサー類で観測される情報」(図44の247)・
「触覚計測センサー類で観測される情報」(図44の248)・
「人が持つ 私的・地域的・公知的 概念認識情報」
(以下、「人認識情報」と 呼称する)(図44の129)・
「人が推定できる 私的・地域的・公知的 連想推定情報」
(以下、「人推定情報」と 呼称する)(図44の212)・
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」
(以下、「制御情報」と 呼称する)(図44の213)、
および、
「コンピュータプログラム言語情報の処理情報」
(以下、「言語情報」と 呼称する)(図44の214)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図44の130)
Under the conditions as described above,
In FIG.
Present within the “A5 sensation space” (300 in FIG. 44)
"Sound information" (122 in Fig. 44)
“Text information” (123 in FIG. 44)
“Personal information” (124 in FIG. 44)
“Biological information” (125 in FIG. 44)
"Material information" (126 in FIG. 44)
“Camera shooting status information” (127 in FIG. 44)
"Plane image information excluding the information" (128 in FIG. 44).
"Information observed by visual measurement sensors" (244 in Fig. 44)
“Information observed by auditory sensors” (245 in FIG. 44)
“Information observed by olfactory sensor” (246 in FIG. 44)
“Information observed by taste sensor” (247 in FIG. 44)
“Information observed by tactile sensors” (248 in FIG. 44).
"Personal, regional, and publicly known concept recognition information that people have"
(Hereafter referred to as “person recognition information”) (129 in FIG. 44).
"Private, regional, and publicly known association estimation information that humans can estimate"
(Hereinafter referred to as “person estimation information”) (212 in FIG. 44).
"Processing information for any of the control units, control devices, control devices, and control systems"
(Hereinafter referred to as “control information”) (213 in FIG. 44),
and,
"Processing information of computer program language information"
(Hereinafter referred to as “language information”) (214 in FIG. 44)
“Information consisting of one or more, one or more various combinations, or one or more various superpositions” (130 in FIG. 44).


「時間同軸上の音情報、同軸上の近似類の平均値音情報、または、同軸上の同偏差値音情報」(図44の131)
「同軸上の文字情報、同軸上の近似類の平均値文字情報、または、同軸上の同偏差値文字情報」(図44の132)
「同軸上の人情報、同軸上の近似類の平均値人情報、または、同軸上の同偏差値人情報」(図44の133)
「同軸上の生物情報、同軸上の近似類の平均値生物情報、または、同軸上の同偏差値生物情報」(図44の134)
「同軸上の物情報、同軸上の近似類の平均値物情報、または、同軸上の同偏差値物情報」(図44の135)
「同軸上のカメラ類撮影状況情報、同軸上の近似類の平均値カメラ類撮影状況情報、または、同軸上の同偏差値カメラ類撮影状況情報」(図44の136)
「同軸上の前記情報を除いた平面画像情報、同軸上の近似類の平均値前記情報を除いた平面画像情報、または、同軸上の同偏差値前記情報を除いた 平面画像情報」(図44の137)
「同軸上の視覚計測センサー類で観測される情報、同軸上の近似値内の平均値視覚計測センサー類で観測される情報、または、同軸上の同偏差値視覚計測センサー類で観測される情報」(図44の300)・
「同軸上の聴覚計測センサー類で観測される情報、同軸上の近似値内の平均値聴覚計測センサー類で観測される情報、または、同軸上の同偏差値聴覚計測センサー類で観測される情報」(図44の300)・
「同軸上の嗅覚計測センサー類で観測される情報、同軸上の近似値内の平均値嗅覚計測センサー類で観測される情報、または、同軸上の同偏差値嗅覚計測センサー類で観測される情報」(図44の300)・
「同軸上の味覚計測センサー類で観測される情報、同軸上の近似値内の平均値味覚計測センサー類で観測される情報、または、同軸上の同偏差値味覚計測センサー類で観測される情報」(図44の300)・
「同軸上の触覚計測センサー類で観測される情報、同軸上の近似値内の平均値触覚計測センサー類で観測される情報、または、同軸上の同偏差値触覚計測センサー類で観測される情報」(図44の300)・
『同軸上の「人認識情報」、同軸上の近似値内の平均値「人認識情報」、または、同軸上の同偏差値「人認識情報」』(図44の215)・
『同軸上の「人推定情報」、同軸上の近似値内の平均値「人推定情報」、または、同軸上の同偏差値「人推定情報」』(図44の216)・
『同軸上の「制御情報」、同軸上の近似値内の平均値「制御情報」、または、同軸上の同偏差値「制御情報」』(図44の217)、および、
『同軸上の「言語情報」、同軸上の近似値内の平均値「言語情報」、または、同軸上の同偏差値「言語情報」』(図44の218)
の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図44の139)
との情報比較で、
And “sound information on the same time coaxial, average value sound information of similar types on the same axis, or same deviation value sound information on the same axis” (131 in FIG. 44)
“Coaxial character information, coaxial average value character information, or coaxial deviation character information” (132 in FIG. 44)
“Personal information on the same axis, average value person information on the same type on the same axis, or the same deviation value person information on the same axis” (133 in FIG. 44)
"Biological information on the same axis, average value biological information on the same type on the same axis, or the same deviation value biological information on the same axis" (134 in FIG. 44)
"Object information on the same axis, average value object information on the same type on the same axis, or information on the same deviation value on the same axis" (135 in FIG. 44)
"Camera shooting status information on the same axis, average camera shooting status information on the same type on the same axis, or same deviation value camera shooting status information on the same axis" (136 in FIG. 44)
“Plane image information excluding the information on the same axis, average value of the approximation on the same axis, plane image information excluding the information, or plane image information excluding the same deviation value on the same axis” (FIG. 44) 137)
"Information observed by visual measurement sensors on the same axis, information observed by average visual measurement sensors within the approximate value on the same axis, or information observed by visual measurement sensors of the same deviation value on the same axis" (300 in FIG. 44)
“Information observed by coaxial auditory sensors, information observed by average auditory sensors within the approximate value on the same axis, or information observed by same-value auditory sensors on the same axis. (300 in FIG. 44)
"Information observed by olfactory sensors on the same axis, information observed by average olfactory sensors within the approximate value on the same axis, or information observed by the same olfactory sensors on the same value on the same axis" (300 in FIG. 44)
"Information observed by taste sensor on the same axis, information observed by average taste sensor within the approximate value on the same axis, or information observed by the taste sensor of the same deviation value on the same axis" (300 in FIG. 44)
"Information observed by tactile sensors on the same axis, information observed by average tactile sensors within the approximate value on the same axis, or information observed by the tactile sensors of the same deviation value on the same axis" (300 in FIG. 44)
“Coaxial“ person recognition information ”, coaxial average value“ person recognition information ”, or coaxial deviation value“ human recognition information ”(215 in FIG. 44).
“Coaxial“ person estimation information ”, coaxial average value“ person estimation information ”, or coaxial deviation value“ person estimation information ”(216 in FIG. 44).
"Coaxial" control information ", average value" control information "within the approximate value on the coaxial, or the same deviation value" control information "on the coaxial (217 in FIG. 44), and
“Language Information” on Coaxial, Average Value “Language Information” in Approximate Value on Coaxial, or Same Deviation Value “Language Information” on Coaxial ”(218 in FIG. 44)
Of which
"Information consisting of one or more, one or more various combinations, or one or more various overlays" (139 in FIG. 44)
Compare information with

「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)を持っている、もしくは、持たされている、
“Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Anomaly” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “Enlarge” (FIG. 44 of 145) “reduction” (146 of FIG. 44) “expansion” (147 of FIG. 44) “compression” (148 of FIG. 44) “equivalent” (149 of FIG. 44) “match” (150 of FIG. 44) “ "Approximation" (151 in FIG. 44) "Similarity" (152 in FIG. 44) "Same" (153 in FIG. 44) "Related" (154 in FIG. 44) "Difference" (155 in FIG. 44) "Intersection" (FIG. 44 156) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) “Separation” (161 in FIG. 44) “ “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “Break” 44 in FIG. 44) “Now” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” (FIG. 44 227) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) “East” (232 in FIG. 44), And “unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more of the same, or various superpositions of one or more of the same" (169 in FIG. 44) or "Processing for detecting the same comparison information simultaneously." Information "(170 in FIG. 44), or

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜13のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The stereoscopic image information holding object / image information stereoscopic processing apparatus or the stereoscopic image information processing apparatus according to any one of the first to thirteenth aspects.

15、本発明の第15の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図39において)
前記第14記載の特徴と同じ特徴を持つことを特徴とする
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報」(図39の188)からなる立体画像情報保持物・画像情報立体化処理装置・立体画像情報処理装置。
15. The fifteenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIG. 39)
“Both-shaped fusion image information” (171 in FIG. 39) characterized by having the same characteristics as those described in the fourteenth aspect.
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
Stereo image information holding object / image information stereoscopic processing apparatus / stereo image information processing composed of “one or more, one or more various combinations, or one or more various superimposed image information” (188 in FIG. 39) apparatus.

16、本発明の第16の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図45において)
時間軸上の平面画像情報から構成される特定動画画像情報群《以下、「A動画群」(図45の324)と呼称する》は、時間軸上で、同一概念認識体として捕えられ、同認識でき、同表現され、同表示可能な、各連続した特定動画画像情報群から、少なくとも1部以上、もしくは、全部が、構成されている。
また、「A動画群」(図45の324)は、
時間軸上の極めて簡単な例である映像情報や同例の撮影画像情報などの「特定動画画像情報群」(図45の326)と 同例の写真画像情報や同例の絵画画像情報などの「特定平面画像情報群」(図45の327)の何れか1以上を含み、この「両特定画像情報群」(図45の326・327)《以下、まとめて「B動画群」(図45の325)と呼称する》から、前記「B動画群」(図45の325)を基礎として、極めて簡単な例であるコンピュータグラフィク技術などの様々なコンピュータ画像処理技術類により、「B動画群」(図45の325)の不足する画画像情報が 計算により導きだされた「不足する特定動画画像情報群」(図45の330)と「不足する特定平面画像情報群」(図45の331)の何れか1以上からなる『「B動画群」(図45の325)の不足動画画像情報群』(図45の329)《以下、「B動画不足群」(図45の329)と呼称する》を含む。
16. The sixteenth stereoscopic image information holding material / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIG. 45)
A specific moving image information group (hereinafter referred to as “A moving image group” (324 in FIG. 45)) composed of planar image information on the time axis is captured as the same concept recognizer on the time axis. At least one copy or all of the continuous specific moving image information groups that can be recognized, expressed, and displayed are configured.
In addition, “A movie group” (324 in FIG. 45)
The “specific video image information group” (326 in FIG. 45) such as video information and the photographed image information of the example, which is a very simple example on the time axis, and the photograph image information of the example and the picture image information of the example One or more of the “specific plane image information group” (327 in FIG. 45) includes this “both specific image information group” (326 and 327 in FIG. 45) << hereinafter referred to collectively as “B moving image group” (FIG. 45). ”), From the“ B moving image group ”(325 in FIG. 45) based on various computer image processing techniques such as computer graphic technology, which is a very simple example, (325 in FIG. 45) The deficient specific moving image information group (330 in FIG. 45) and “deficient specific plane image information group” (331 in FIG. 45) derived from the calculation are obtained. "" Consisting of one or more of Lack moving image information group of the group moving image "(325 in FIG. 45)" (329 of FIG. 45) "hereinafter," B video shortage group "(329 of FIG. 45) and is referred to" including.

また、前記「B動画群」(図45の325)の少なくとも1部以上には、
前記「B動画群」(図45の325)が、備えている画像情報に、対応した、極めて簡単な例である音声などの音情報群(図45の328)《以下、「B対応音群」(図45の328)と 呼称する》を 含んでいるか、全く含んでいないかの何れかで構成されている。
In addition, at least one part of the “B moving image group” (325 in FIG. 45)
A sound information group such as voice (328 in FIG. 45) which is a very simple example corresponding to the image information included in the “B moving image group” (325 in FIG. 45) << hereinafter referred to as “B corresponding sound group” "(Referred to as 328 in FIG. 45)" or not included at all.

また、同様に、前記「B動画不足群」(図45の329)の少なくとも1部以上には、
前記「B動画不足群」(図45の329)が、備えている画像情報に 対応した、極めて簡単な例である音声などの音情報《以下、「B対応音不足群」(図45の332)と 呼称する》を 含んでいるか、全く含んでいないかの何れかで構成されている。
Similarly, at least one part of the “B video shortage group” (329 in FIG. 45)
Sound information such as voice, which is a very simple example corresponding to the image information provided in the “B moving image deficient group” (329 in FIG. 45) << hereinafter referred to as “B corresponding sound deficient group” (332 in FIG. 45) ) ”Or“ not ”at all.

つまり、
「A動画群」(図45の324)は、
前記第14記載の「A5感空間」(図45の300)内に含まれる、および、「B虚空領域」(図45の302)と「C実空領域」(図45の303)の1つ以上と、その少なくとも1部以上、もしくは、全部が 重層している。
That means
“A movie group” (324 in FIG. 45)
One of the “B imaginary space region” (302 in FIG. 45) and the “C real space region” (303 in FIG. 45) included in the “A5 sensation space” (300 in FIG. 45) described in 14th above. The above, and at least one part or all of them are overlaid.

また、「A動画群」(図45の324)内は、
「B動画群」(図45の325)「B動画不足群」(図45の329)、もしくは、「その他の動画画像群」(図45の333)の内 いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから、少なくともその1部以上、もしくは、全部が、構成されている。
Also, the “A movie group” (324 in FIG. 45)
One of at least one of “B movie group” (325 in FIG. 45), “B movie shortage group” (329 in FIG. 45), or “other movie image group” (333 in FIG. 45). At least one part or all of them are composed of various combinations or one or more various superpositions.

また、「B動画群」(図45の325)内は、
特定動画画像情報群(図45の326)と、特定平面画像情報群(図45の327)のいずれか1つ以上の様々な組み合わせで、少なくともその1部以上、もしくは、全部が、構成されている、および、「B動画群」(図45の325)の少なくとも1部以上には、前記「B対応音群」(図45の328)を 含んでいるか、もしくは、全く含んでいないかの何れかで構成されている。
Also, the “B animation group” (325 in FIG. 45)
At least one part or all of the specific moving image information information group (326 in FIG. 45) and the specific plane image information group (327 in FIG. 45) are configured in various combinations. And at least one part of the “B moving image group” (325 in FIG. 45) includes the “B corresponding sound group” (328 in FIG. 45) or does not include at all. It is made up of.

また、「B動画不足群」(図45の329)内は、
「不足する特定動画画像情報群」(図45の330)と「不足する特定平面画像情報群」(図45の331)のいずれか1つ以上の様々な組み合わせで、少なくともその1部以上、もしくは、全部が、構成されている、および、「B動画不足群」(図45の329)の少なくとも1部以上には、前記「B対応音不足群」(図45の332)を 含んでいるか、もしくは、全く含んでいないかの何れかで構成されている。
In addition, the “B video shortage group” (329 in FIG. 45)
At least one or more of various combinations of one or more of “shortage specific moving image information group” (330 in FIG. 45) and “shortage specific plane image information group” (331 in FIG. 45), or Are all configured, and at least one part of the “B moving picture deficient group” (329 in FIG. 45) includes the “B corresponding sound deficient group” (332 in FIG. 45), Or it is comprised by either not including at all.

以上の様な、条件下において、図46において、
『検知された時間軸上の「A5感空間情報」内部の各場面状況情報』(図46の334)から、もしくは、「同時進行」(図46の233)で、
「両形融合画像情報の処理実行」(図46の171)・
「両組融合画像情報の処理実行」(図46の172)・
「両形組融合画像情報の処理実行」(図46の173)・
「両離輻輳融合画像情報の処理実行」(図46の174)・
「画像情報の処理実行」(図46の175)・
「視覚情報の処理実行」(図46の234)・
「聴覚情報の処理実行」(図46の176)・
「嗅覚情報の処理実行」(図46の177)・
「触覚情報の処理実行」(図46の178)・
「味覚情報の処理実行」(図46の179)・
「A動画群情報の処理実行」(図46の335)・
「5感覚計測センサー類情報の処理実行」(図46の336)・
「カメラ類撮影状況情報の処理実行」(図46の235)・
「人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」(図46の236)・
「人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」(図46の237)・
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理実
行」(図46の238)、
および、
「コンピュータプログラム言語情報の処理実行」(図46の239)の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報の処理実行」(図46の180)
「前記処理実行の情報を持っている、もしくは、持たされている」
(図46の181)
Under the conditions as described above, in FIG.
From “Detected scene status information inside“ A5 sense space information ”on time axis detected” (334 in FIG. 46) or “simultaneous progression” (233 in FIG. 46),
“Execution of bimodal image information processing” (171 in FIG. 46).
“Process execution of both sets of fused image information” (172 in FIG. 46).
“Process execution of both forms combined image information” (173 in FIG. 46).
"Execution of processing of both deconvergence fusion image information" (174 in FIG. 46).
“Image information processing execution” (175 in FIG. 46).
“Visual information processing execution” (234 in FIG. 46)
“Perform auditory information processing” (176 in FIG. 46).
“Process execution of olfactory information” (177 in FIG. 46).
“Tactile information processing” (178 in FIG. 46)
“Taste information processing execution” (179 in FIG. 46)
“A video group information processing execution” (335 in FIG. 46).
“Process execution of sensory sensor information” (336 in FIG. 46)
“Camera shooting status information processing execution” (235 in FIG. 46).
“Personal, regional, and publicly known concept recognition information processing execution that humans can recognize” (236 in FIG. 46).
“Perform processing of personal, regional, and publicly known association estimation information that can be estimated by humans” (237 in FIG. 46).
“Processing execution of processing information of any of control units, control devices, control devices, and control systems” (238 in FIG. 46),
and,
Of “Processing execution of computer program language information” (239 in FIG. 46),
"Process execution of processing information consisting of any one or more, one or more various combinations, or one or more various superpositions" (180 in FIG. 46)
"I have or have information on the execution of the process"
(181 in FIG. 46)

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜15のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding object / image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to fifteenth aspects.

17、本発明の第17の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図39、35において)
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ、同様々な重ね合わせ(図39の188)で、構成されている融合画像情報(図39の114、および、図35のy4)内の補間すべき融合画像情報部分(図35のy4の400)に、補間用融合画像情報(図35の「Y4の402」に「Y3の402a」を複写し、埋め込み、「Y3」と「Y4」を融合させ「y3の401」から「y4の400」に至る)が 必要な場合において、
17. A seventeenth image information holding object / image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIGS. 39 and 35)
“Both shape fusion image information” (171 in FIG. 39)
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
One or more, one or more various combinations, or one or more various superpositions, the same various superpositions (188 in FIG. 39), fused image information (114 in FIG. 39, and 35. Copy and embed “Y3 402a” in “Y4 402” in FIG. 35 in the fused image information portion (y4 400 in FIG. 35) in y4) in FIG. When “Y3” and “Y4” are merged to “y3 401” to “y4 400”),

当該補間用平面画像情報(図35の「Y3の402a」)が、
「両形融合画像情報」(図39の171)の少なくとも1部以上・
「両組融合画像情報」(図39の172)の少なくとも1部以上・
「両形組融合画像情報」(図39の173)の少なくとも1部以上、および、
「両離輻輳融合画像情報」(図39の174)の少なくとも1部以上の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ(図39の188)画像情報で、少なくともその補間用平面画像情報(図35の「Y3の402a」)の少なくとも1部以上、もしくは、全部が、構成されている各融合画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同各備えさせられること、
The interpolation plane image information (“Y3 402a” in FIG. 35)
At least one copy of “Both shape fusion image information” (171 in FIG. 39).
At least one copy of “Both-set fusion image information” (172 in FIG. 39)
At least one part of “both forms combined image information” (173 in FIG. 39), and
Of at least one part of “both devergence fusion image information” (174 in FIG. 39),
One or more, one or more various combinations, or one or more various overlapping (188 in FIG. 39) image information, and at least the plane image information for interpolation (“Y3 402a” in FIG. 35). One or more, or all of them are provided with any one or more of each composed image information signal and the same image information light,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜16のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the three-dimensional image information holding object / image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to sixteenth aspects, characterized in that the act can be performed in some amount.

18、本発明の第18の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図27において)
「平面画像情報」(図27の121)から構成される
「両飽和度融合画像情報」(図27の197)・
「両明度融合画像情報」(図27の207)・
「両像収差度融合画像情報」(図27の208)、および、
「両像輪郭線度融合画像情報」(図27の209)の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから構成される各融合画像情報信号、および、同融合画像情報光」(図27の210)のいずれか1つ以上を備えること、もしくは、同各備えさせられること、
18. An eighteenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus according to the present invention (in FIG. 27)
“Both saturation image information” (197 in FIG. 27) composed of “Plane image information” (121 in FIG. 27).
“Brightness fusion image information” (207 in FIG. 27)
"Both image aberration degree fusion image information" (208 in FIG. 27), and
Of “Both-image contour-line fusion image information” (209 in FIG. 27),
Any one of “one or more, one or more various combinations, or one or more fusion image information signals composed of various superpositions and the same fusion image information light” (210 in FIG. 27) One or more, or each of the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜17のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding object / image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to seventeenth features.

19、本発明の第19の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図24、26において)、
『本明細書記載の「両離輻輳融合画像情報」(図26の174)が持つ、輻輳融合画像情報可能な画像情報比較の差異範囲』以上の同差異範囲を持つ 平面画像情報(図24の116、図26の195)を
少なくとも1つ以上備えること、もしくは、同備えさせられること、
19. The nineteenth stereoscopic image information holding / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIGS. 24 and 26)
Plane image information having the same difference range that is equal to or greater than the “difference range of image information comparison capable of convergence fusion image information possessed by“ both separated convergence image information ”(174 in FIG. 26) described in this specification” (FIG. 24). 116, including at least one or more of 195) in FIG.

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜18のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding object / image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to eighteenth aspects.

20、本発明の第20の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図22において)、
「情報演算」(図22の202)・「情報検索」(図22の203)・
「情報受信」(図22の204)・「情報入力」(図22の102)・
「情報記憶」(図22の103)・「情報記録」(図22の104)・
「情報照合」(図22の205)・「情報制御」(図22の106)・
「情報実行」(図22の206)・「情報加工」(図22の105)・
「情報出力」(図22の107)・「情報再生」(図22の108)
「情報印刷」(図22の109)・「情報表示」(図22の110)、および、
の「情報送信」(図22の201)の内、
「各いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報処理」(図22の111)
を機能できること、もしくは、同機能させられること、
20. The 20th stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIG. 22)
“Information calculation” (202 in FIG. 22) • “Information search” (203 in FIG. 22)
“Information reception” (204 in FIG. 22) “Information input” (102 in FIG. 22)
“Information storage” (103 in FIG. 22) • “Information recording” (104 in FIG. 22)
“Information verification” (205 in FIG. 22) • “Information control” (106 in FIG. 22)
“Information execution” (206 in FIG. 22) “Information processing” (105 in FIG. 22)
“Information output” (107 in FIG. 22) / “Information reproduction” (108 in FIG. 22)
“Information printing” (109 in FIG. 22), “Information display” (110 in FIG. 22), and
"Information transmission" (201 in FIG. 22)
"Information processing consisting of one or more of each, various combinations of one or more of the same, or various superpositions of one or more of the same" (111 in FIG. 22)
That can function, or that

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜19のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The stereoscopic image information holding object / image information stereoscopic processing apparatus or the stereoscopic image information processing apparatus according to any one of the first to 19th features.

21、本発明の第21の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図23において)、
『前記「同種異系画像情報」同士の画像情報』(図23の112)が、
「残像による画像情報融合効果が有効な時間内の時間差《1秒あたりでは、61.85枚/秒(誤差±9枚)となる。誤差±9枚は、1個人の数値であるため、個々のぶれを15%ほど設けた。》をもたして時分割画像情報処理する」(図23の113)こと、もしくは、同処理されること
21. A twenty-first stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus according to the present invention (in FIG. 23)
“Image information between the“ similar and different image information ”” (112 in FIG. 23)
“Time difference within the effective time of image information fusion effect due to afterimages << 61.85 images / second (error ± 9 images) per second. "The time-sharing image information processing is performed with">>"(113 in FIG. 23) or the same processing is performed

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜20のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
21. The stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus according to any one of the first to twentieth described above.

22、本発明の第22の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図24において)、
前記様々な融合画像情報(図24の171〜174と188)に共通する融合可能な『「同種異系画像情報」同士の画像情報比較の「差異の画像情報」』において、
22. The 22D image information holding object / image information 3D processing apparatus or 3D image information processing apparatus of the present invention (in FIG. 24)
In “variable image information” of image information comparison between “variable image information of the same kind” that can be fused to the various fused image information (171 to 174 and 188 in FIG. 24),

前記記載の「差異の画像情報」部分(図24の112)が、
『融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を 増減することができる、もしくは、同増減させられることができる差異の画像情報』(図24の115)、
The "difference image information" part (112 in FIG. 24) described above is
“Image information of difference that can be increased / decreased or can be increased / decreased” within the range of the difference that can be fused (115 in FIG. 24),

『融合可能な該差異の範囲外での「強弱」、もしくは、同「高低」を 増減することができる画像情報、もしくは、同増減させられることができる差異の画像情報』(図24の116)、 “Image information that can increase or decrease“ strong ”or“ high ”that is outside the range of the difference that can be fused, or image information of the difference that can be increased or decreased (116 in FIG. 24) ,

『融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を ゼロにすることができる画像情報、もしくは、ゼロにさせられることができる差異の画像情報』(図24の117)、の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
“Image information that can make“ strong ”or“ high ”within the range of the difference that can be fused zero, or image information of the difference that can be made zero (117 in FIG. 24) ),
Any one or more, one or more various combinations, or one or more image information signals composed of one or more various superpositions and the same image information light, or the same Being

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能である、
各画像情報信号、および、同画像情報光であること、
を特徴とした前記第1〜21のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or some of the actions are possible,
Each image information signal and the same image information light,
The stereoscopic image information holding object / image information stereoscopic processing apparatus or the stereoscopic image information processing apparatus according to any one of the first to 21 characterized by the above.

23、本発明の第23の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図26において)、
前記「両形融合画像情報」(図26の171)・
「両組融合画像情報」(図26の172)・
「両形組融合画像情報」(図26の173)、および、
「両離輻輳融合画像情報」(図26の174)の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを 使い分ける処理情報」(図26の188)の「直前」(図26の189)「直後」(図26の190)「途中」(図26の191)「前のいずれか」(図26の192)、もしくは、「後のいずれか」(図26の193)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる位置」(図26の194)に、
「同各融合が起こらない処理情報」(図26の195)が、可能である
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
23, the 23D image information holding object / image information 3D processing apparatus or 3D image information processing apparatus of the present invention (in FIG. 26)
The “both forms fused image information” (171 in FIG. 26).
"Both-set fusion image information" (172 in FIG. 26)
“Both-shaped set fusion image information” (173 in FIG. 26), and
Of the “both devergence fusion image information” (174 in FIG. 26),
“Processing information that uses one or more, one or more different combinations, or one or more different overlays” (188 in FIG. 26) “just before” (189 in FIG. 26) “just after” (see FIG. 26 of 190) “on the way” (191 in FIG. 26) “any one before” (192 in FIG. 26) or “any one after” (193 in FIG. 26),
"Position consisting of one or more, one or more various combinations, or one or more various superpositions" (194 in FIG. 26),
The “processing information that does not cause the fusion” (195 in FIG. 26) includes or is made to include any one or more of the possible image information signal and the same image information light,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜22のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding object / image information three-dimensional processing device or the three-dimensional image information processing device according to any one of the first to twenty-second features.

24、本発明の第24の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図1・3・5・7・9・11・22〜27・30・32・34・36、および、38において)
前記第1〜23記載の行為を実行処理する(図1・3・5・7・9・11・22〜27・30・32・34・36、および、38参照)コンピューター処理プログラムの内、1以上と同1以上の様々な組み合わせによる同コンピュータ処理プログラムである処理情報信号、および、同処理情報光のいずれかを備えること、もしくは、同備えさせられること、
24, the 24th stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention is (FIGS. 1, 3, 5, 7, 9, 11, 22 to 27, 30,. 32, 34, 36 and 38)
Of the computer processing programs, the above-mentioned actions 1 to 23 are executed (see FIGS. 1, 3, 5, 7, 9, 11, 22 to 27, 30, 32, 34, 36, and 38). The processing information signal, which is the same computer processing program by the various combinations of the above one or more, and the processing information signal, or the same processing information light,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜23のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the three-dimensional image information holding object / image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to twenty-third aspects, characterized in that the act can be performed in any number.

25、本発明の第25の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図14において)
画像情報表示部内に設置された 画像情報信号用 1画素部内の1ドット部、もしくは、1セル部(図14の2)から、「可視自発光体類(極めて簡単な例として、プラズマ類用蛍光体類・エレクトロルミネッセンス類等に代表的に見受けられる 可視自発光体類)」の 可視発光画像情報信号(図14の3)として発光する。
25. A twenty-fifth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIG. 14)
For image information signals installed in the image information display unit, from one dot unit in one pixel unit or one cell unit (2 in FIG. 14), “visible self-luminous substances (as a very simple example, fluorescence for plasmas) It emits light as a visible light-emission image information signal (3 in FIG. 14) of “visible self-luminous materials that can be seen typically in body / electroluminescence”.

またおよび、「箱O」(図14の5)は、
「少なくとも1部以上が、多面体類壁、錐体類壁、球体類壁、または/および、円筒類壁で構成されている箱型」で、形成されている「箱O」(図14の5)で ある。
Also, “Box O” (5 in FIG. 14)
“Box O” (5 in FIG. 14) formed of “a box shape in which at least one part is composed of a polyhedral wall, a cone wall, a sphere wall, and / or a cylindrical wall”. ).

および、前記「箱O」(図14の5)は、同「箱O」(図14の5)の 少なくとも1部以上が、開口しているため、もしくは、開口していなくても 透過性があるため 結果的に、開口していることと 近似値内の効果を持つ 各開口部が、少なくとも1部以上存在している(図14の6)。 In addition, the “box O” (5 in FIG. 14) is permeable even if at least one part of the “box O” (5 in FIG. 14) is open or not. As a result, there are at least one or more openings each having an opening and an effect within the approximate value (6 in FIG. 14).

および、前記開口部(図14の6)で、可視発光画像情報信号(図14の8b)が、入光してくる開口部(図14の6)を 前方開口部と呼称する前記「箱O」(図14の5)で ある。 Further, in the opening (6 in FIG. 14), the visible light emission image information signal (8b in FIG. 14) receives the opening (6 in FIG. 14) through which the incident light enters (the box O). (5 in FIG. 14).

および、「箱O」(図14の5)は、前記1ドット部、もしくは、1セル部(図14の2)に、少なくとも1部以上が、対応するように、設置されている。(図14の2と5) The “box O” (5 in FIG. 14) is installed so that at least one part corresponds to the one dot portion or one cell portion (2 in FIG. 14). (2 and 5 in Fig. 14)

および、前記1ドット部、もしくは、1セル部(図14の2)各内の可視自発光体類(図14の3)の少なくとも1部以上、もしくは、全部の 後方方向の いずれかで、本明細書記載の当該第25の効果が、認められる範囲内に、設置されている「箱O」(図14の5)である。 And at least one or more of the visible self-luminous bodies (3 in FIG. 14) in each of the 1-dot portion or 1-cell portion (2 in FIG. 14), or the entire rearward direction. The twenty-fifth effect described in the specification is the “box O” (5 in FIG. 14) that is installed within a recognized range.

つまり、「箱O」(図14の5)は、
前記1ドット部、もしくは、1セル部(図14の2)から、後方へ、抜け出た、少なくも1部以上の可視発光画像情報信号(図14の8a)が、
この「箱O」(図14の5)の前方開口部(図14の6)から、入光(図14の8b)でき、および、前記入光した前記可視発光画像情報信号(図14の8b)は、同「箱O」(図14の5)の前方開口部(図14の6)から、逆に、出光(図14の9a)でき、
前記1ドット部、もしくは、1セル部(図14の2)へ、抜け出て行く(図14の9b)ような「箱O」(図14の5)である。
That is, “Box O” (5 in FIG. 14) is
At least one part of the visible light emission image information signal (8a in FIG. 14) that escapes backward from the one dot part or one cell part (2 in FIG. 14),
From the front opening (6 in FIG. 14) of this “box O” (5 in FIG. 14), light can be incident (8b in FIG. 14), and the incident visible light emission image information signal (8b in FIG. 14) can be obtained. ), From the front opening (6 in FIG. 14) of the “box O” (5 in FIG. 14), the light can be emitted (9a in FIG. 14).
It is a “box O” (5 in FIG. 14) that goes out (9b in FIG. 14) to the one dot portion or one cell portion (2 in FIG. 14).

および、前記「箱O」(図14の5)の内側面、もしくは、内外両側面の各1部(図14の7)以上は、鏡類面、鏡類的仕上げ面、もしくは、光が反射できる反射素材類の面となっている。 Further, the inner surface of the “box O” (5 in FIG. 14) or each part (7 in FIG. 14) on both the inner and outer side surfaces reflects a mirror surface, a mirror-finished surface, or light. It is a surface of reflective materials that can be made.

従って、「箱O」(図14の5)は、
前記「箱O」(図14の5)の内側面(図14の7)が、鏡類面、鏡類的仕上げ面、もしくは、光が反射できる反射素材類の面となっているため、
前記「箱O」(図14の5)の前方開口部(図14の6)から入光し(図14の8b)、同前方開口部(図14の6)から逆方向へ 再度 抜け出て行く 前記可視発光画像情報信号(図14の9a)は、その1部、多部、および、全部の内、1以上と その1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも1回以上の反射を体験した 前記可視発光画像情報信号(図14の9a)に、偏向して、該前方開口部(図14の6)から前方(図14の2)外部へ、抜け出て行くことになる。(図14の9b)
Therefore, “Box O” (5 in FIG. 14) is
Since the inner surface (7 in FIG. 14) of the “box O” (5 in FIG. 14) is a mirror surface, a mirror-finished surface, or a reflective material surface that can reflect light,
Light enters from the front opening (6 in FIG. 14) of the “box O” (5 in FIG. 14) (8b in FIG. 14), and exits again in the opposite direction from the front opening (6 in FIG. 14). The visible light-emission image information signal (9a in FIG. 14) is reflected at least once by one or more, one or more of them, various combinations of one or more of them, or the same superposition. It is deflected to the visible light emission image information signal (9a in FIG. 14) that experienced the above, and escapes from the front opening (6 in FIG. 14) to the outside (2 in FIG. 14). (9b in FIG. 14)

以上の条件下において、
前記可視発光画像情報信号(図14の3)の内、後方へ抜け出た 少なくも1部以上の可視発光画像情報信号(図14の8a)が、前記「箱O」(図14の5)の前記前方開口部(図14の6)を、入光した 同可視発光画像情報信号(図14の8b)は、前記「箱O」内部(図14の7)で、少なくとも1回以上 反射された 反射光信号となって、再び前記前方開口部(図14の6)から 出光し(図14の9a)、前記1ドット部、もしくは、1セル部(図14の2)を 逆通過後、前方(図14の1)へ進み出る可視発光画像情報信号(図14の9b)として、前記画像情報表示部(図14の1)の 前方空間に現れでる画像情報信号(図14の9c)を持っている、もしくは、持たされている、
Under the above conditions,
Among the visible light emission image information signals (3 in FIG. 14), at least one or more visible light emission image information signals (8a in FIG. 14) that have come out backward are the “box O” (5 in FIG. 14). The visible emission image information signal (8b in FIG. 14) that has entered the front opening (6 in FIG. 14) was reflected at least once inside the “box O” (7 in FIG. 14). It becomes a reflected light signal and is emitted again from the front opening (6 in FIG. 14) (9a in FIG. 14), and after passing through the one dot part or one cell part (2 in FIG. 14) in the reverse direction, As the visible light emission image information signal (9b in FIG. 14) that proceeds to (1 in FIG. 14), the image information signal (9c in FIG. 14) that appears in the front space of the image information display section (1 in FIG. 14) is held. Or is held,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜24のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The image information three-dimensional processing device or the three-dimensional image information processing device according to any one of the first to twenty-fourth features.

26、本発明の第26の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図39において)
前記第25記載の特徴と同じ特徴を持つことを特徴とする
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報」(図39の188)からなる画像情報立体化処理装置・立体画像情報処理装置。
26, the 26th image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention (in FIG. 39)
“Double-shaped fusion image information” (171 in FIG. 39) characterized by having the same characteristics as those described in 25th above.
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
An image information stereoscopic processing apparatus / stereoscopic image information processing apparatus comprising “one or more, one or more various combinations, or one or more various superimposed image information” (188 in FIG. 39).

27、本発明の第27の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、
(図15において)少なくとも1部以上が、表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面で、構成されている画像情報表示部上の、外光反射が起きる 前面表示面(図15の1)において、
27, a twenty-seventh image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention,
(In FIG. 15) At least one part is on the display screen protection function combined use glass surface, the display screen protection function combined transmission plate state material surface, or the display screen protection function combined transmission membrane state material surface. On the front display surface (1 in FIG. 15) where external light reflection occurs on the configured image information display unit,

前記各外光反射表示面(図15の1)上の1個の凸(図15の21)が、前記第25記載の1ドット部、もしくは、1セル部(図15の2)に対して、数ドット部単位以下、もしくは、数セル部単位以下の
「微細な同単位以下の 凸状態仕上げ面」(図15の1)、
「微細な同単位以下の 凸レンズ状態仕上げ面」(図15の1)、および、
「液晶類モニター画面の 視野角を広げる働きを持つ透過性板状態物質類、もしくは、同透過性膜状態物質類(=液晶類モニター画面で使用されている 内部で偏向された可視画像情報信号光を 外部空間に、上下少なくとも 左右いずれかに分散放出する働きを持つシート類、もしくは、同フィルム類)が、使用されている仕上げ面」(図15の1)、
の各1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、少なくとも1部以上の仕上げ面(図15の1)から構成されていることを特徴とする前記第1〜26のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
One protrusion (21 in FIG. 15) on each of the external light reflection display surfaces (1 in FIG. 15) corresponds to one dot portion or one cell portion (2 in FIG. 15) described in 25th above. , “Fine convex finish surface of the same unit or less” (1 in FIG. 15) of several dots or less, or several cells or less.
"Fine convex lens surface with the same unit or less" (1 in FIG. 15), and
“Transparent plate state substances that work to widen the viewing angle of liquid crystal monitor screens, or the same transparent film state substances (= internally deflected visible image information signal light used in liquid crystal monitor screens) In the external space, a finished surface on which sheets or films having the function of dispersing and releasing in at least one of the upper, lower, right and left sides are used ”(1 in FIG. 15),
Each of the above-mentioned ones, various combinations of the same one or more, or various superpositions of the same one or more, and at least one part of the finished surface (1 in FIG. 15). The image information stereoscopic processing apparatus according to any one of 1 to 26 or a stereoscopic image information processing apparatus.

28、本発明の第28の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、
(図19、20において)
画像情報表示部(図19の31)内の「可視自発光体類{極めて簡単な例として、SED(表面電界ディスプレイ)類用蛍光体類、プラズマ類用蛍光体類、エレクトロルミネッセンス類、および、液晶類用バックライト等に、代表的に見受けられる可視自発光体類}」(図19の86)から放たれた可視発光情報信号(図19の33)、もしくは、可視発光画像情報信号(図19の35)が、画像情報信号用 1画素部内の1ドット部、もしくは、1セル部(図19の34)を 通過 後、最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面(図19の38)では、可視発光画像情報信号として、前方空間へ放射される。(図19の45)
28, the 28th image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention,
(In FIGS. 19 and 20)
In the image information display section (31 in FIG. 19), “visible self-luminous substances {as a very simple example, phosphors for SED (surface electric field display) s, phosphors for plasmas, electroluminescence, and Visible light-emitting bodies typically seen in backlights for liquid crystals etc. ”” (86 in FIG. 19) or visible light-emitting image information signal (see FIG. 19) (see FIG. 19). 19) 35) passes through one dot part in one pixel part for image information signal or one cell part (34 in FIG. 19), and then the display screen protection function / glass surface in the front row, the same display screen protection function In the combined transparent plate state substance surface or the display screen protection function combined transparent film state substance surface (38 in FIG. 19), the visible light emission image information signal is emitted to the front space. (45 in FIG. 19)

またおよび、「囲壁P」(図20の37)は、
「少なくとも1部以上が、多面体類壁、錐体類壁、球体類壁、または/および、円筒類壁で構成されている囲み壁」(図20の37)で 囲まれている「囲壁P」(図20の37)で ある。
Also, the “enclosure P” (37 in FIG. 20) is
“Enclosure P” surrounded by “enclosure wall made up of polyhedral body wall, cone body wall, sphere body wall, and / or cylinder wall” (37 in FIG. 20) (37 in FIG. 20).

および、前記「囲壁P」(図20の37)は、囲まれていないため、もしくは、囲まれていても透過性があるため 結果的に、開口していることと近似値内の効果を持つ 各開口部が、少なくとも2部以上存在している。(図20の36と40) Since the “enclosure P” (37 in FIG. 20) is not enclosed or is permeable even if enclosed, the result is that it is open and has an effect within an approximate value. There are at least two or more openings. (36 and 40 in FIG. 20)

および、前記開口部(図20の36と40)で、可視発光情報信号(図19の33)、もしくは、可視発光画像情報信号(図19の35)が、入光してくる開口部(図20の36)を 後方開口部(図20の36)と呼称し、同可視発光情報信号、(図19の33)もしくは、同可視発光画像情報信号(図19の35)が、出光する開口部(図20の40)を 前方開口部(図20の40)と 呼称する前記「囲壁P」(図20の37)で ある。 In the openings (36 and 40 in FIG. 20), the visible light emission information signal (33 in FIG. 19) or the visible light emission image information signal (35 in FIG. 19) enters the opening (FIG. 19). 20) is referred to as a rear opening (36 in FIG. 20), and the visible light emission information signal (33 in FIG. 19) or the visible light emission image information signal (35 in FIG. 19) is emitted. The “enclosure P” (37 in FIG. 20) is referred to as a front opening (40 in FIG. 20) (40 in FIG. 20).

またおよび、前記「囲壁P」(図20の37)は、
前記1ドット部、もしくは、1セル部(図19の34)に 少なくとも1部以上が、対応するように、設置されている。(図19の34と80)
Also, the “enclosure P” (37 in FIG. 20) is
At least one part or more is installed so as to correspond to the one dot part or one cell part (34 in FIG. 19). (34 and 80 in FIG. 19)

および、前記1ドット部、もしくは、1セル部 に対応する可視自発光体類(図19の86)の少なくとも1部以上、もしくは、全部の 前方方向の いずれかで(図19の80)、
本明細書記載の当該第28の効果が、認められる範囲内に(図19の80)、
設置されている。
And at least one or more of the visible self-luminous bodies (86 in FIG. 19) corresponding to the 1-dot portion or 1-cell portion, or all in the forward direction (80 in FIG. 19),
The twenty-eighth effect described in the present specification is within the range where it is recognized (80 in FIG. 19),
is set up.

つまり、「囲壁P」(図20の37)は、
前記1ドット部、もしくは、1セル部に対応する可視自発光体類(図19の86)から、前方へ、出光した、可視発光情報信号(図20の33)、もしくは、可視発光画像情報信号(図20の35)が、この「囲壁P」(図20の37)の後方開口部(図20の36)から、入光(図20の33・35)し、同「囲壁P」(図20の37)の前方開口部(図20の40)から、前方外部へと、同各信号が、抜け出て行く(図20の43・44)ような「囲壁P」(図20の37)である。
That is, “enclosure P” (37 in FIG. 20) is
A visible light emission information signal (33 in FIG. 20) or a visible light emission image information signal emitted forward from the visible self-luminous body (86 in FIG. 19) corresponding to the 1 dot portion or 1 cell portion. (35 in FIG. 20) enters the light (33 and 35 in FIG. 20) from the rear opening (36 in FIG. 20) of this “enclosure P” (37 in FIG. 20). 20) 37) and the front opening (40 in FIG. 20) to the outside of the front, the same signal exits (43 and 44 in FIG. 20) with “enclosure P” (37 in FIG. 20). is there.

および、前記「囲壁P」(図20の37)の内側面、もしくは、内外両側面の各1部以上(図20の39)は、鏡類面、鏡類的仕上げ面、もしくは、光が反射できる反射素材類の面となっている。 Further, at least one part (39 in FIG. 20) of the inner surface of the “enclosure P” (37 in FIG. 20) or both inner and outer side surfaces (39 in FIG. 20) reflects a mirror surface, a mirror-finished surface, or light. It is a surface of reflective materials that can be made.

従って、前記「囲壁P」(図20の37)は、
「囲壁P」(図20の37)の内側面(図20の39)が、鏡類面、鏡類的仕上げ面、もしくは、光が反射できる反射素材類の面となっているため、
前記「囲壁P」(図20の37)の後方開口部(図20の36)から入光し(図20の33・35)、前方開口部(図20の40)へ抜けて行く 前記可視発光情報信号、もしくは、可視発光画像情報信号(図20の43・44)は、
その1部、多部、および、全部の内、1以上と その1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも1回以上の反射を体験した
前記可視発光情報信号(図20の43)、もしくは、可視発光画像情報信号(図20の44)に、偏向して該前方開口部(図20の40)から前方(図20の38)外部(図20の46)へ、抜け出て行くことになる。
Therefore, the “enclosure P” (37 in FIG. 20) is
Since the inner side surface (39 in FIG. 20) of the “enclosure P” (37 in FIG. 20) is a mirror surface, a mirror-finished surface, or a reflective material surface that can reflect light,
The light enters from the rear opening (36 in FIG. 20) of the “enclosure P” (37 in FIG. 20) (33 and 35 in FIG. 20) and exits to the front opening (40 in FIG. 20). An information signal or a visible light emission image information signal (43 and 44 in FIG. 20)
Visible light emission information signal that experienced at least one or more reflections by one or more of them, one or more of them, various combinations of one or more of them, or the same superposition (43 in FIG. 20) Or, it is deflected to the visible light emission image information signal (44 in FIG. 20) and exits from the front opening (40 in FIG. 20) to the front (38 in FIG. 20) to the outside (46 in FIG. 20). become.

以上の条件下において、
前記可視自発光体類(図19の86)から、前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面(図19の38)までの 各いずれかの間の 少なくとも1ヶ所以上の位置(図19の80)に、
前記「囲壁P」(図20の37)が 設置されることにより、
前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面(図19の38)から、
前方空間へ放射される可視発光画像情報信号(図19の45)が、前記反射体験で偏向された
前記可視発光情報信号(図20の43)、もしくは、可視発光画像情報信号(図20の44)の 少なくともいずれか から 構成された画像情報信号を持っている、もしくは、持たされている、
Under the above conditions,
From the visible self-luminous materials (86 in FIG. 19), the display screen protection function / glass surface in the front row, the display screen protection function / transmission plate state substance surface, or the display screen protection function / transmission At least one position (80 in FIG. 19) between each of the substances up to the surface of the sex membrane state substance (38 in FIG. 19)
By installing the “enclosure P” (37 in FIG. 20),
From the display screen protection function combined use glass surface of the front row, the display screen protection function combined use permeable plate state material surface, or the display screen protection function combined use permeable membrane state material view (38 in FIG. 19),
A visible luminescence image information signal (45 in FIG. 19) radiated to the front space was deflected by the reflection experience.
It has or is provided with an image information signal composed of at least one of the visible light emission information signal (43 in FIG. 20) or the visible light emission image information signal (44 in FIG. 20).

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とした前記第1〜27のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The image information three-dimensional processing device or the three-dimensional image information processing device according to any one of the first to twenty-seventh features.

29、本発明の第29の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、
(図39において)
前記第32記載の特徴と同じ特徴を持つことを特徴とする
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報」(図39の175)からなる画像情報立体化処理装置・立体画像情報処理装置。
29, the twenty-ninth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention,
(In FIG. 39)
“Double-shaped fusion image information” (171 in FIG. 39) characterized by having the same characteristics as those described in the thirty-second aspect.
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
An image information stereoscopic processing apparatus / stereoscopic image information processing apparatus comprising “one or more, one or more various combinations, or one or more various superimposed image information” (175 in FIG. 39).

30、本発明の第30の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図14、19、38に、おいて)
前記第25、もしくは、前記第28記載の
「前記1ドット部、もしくは、1セル部に 少なくとも1部以上が、対応するように設置」
(図14の2と5、図19の34と80)の記載部分が、
「前記1ドット部、もしくは、1セル部を含んだ1以上のいずれかのドット部、もしくは、
同1以上のいずれかのセル部に 少なくとも1部以上が、対応するように設置」(図38の5・37と「3個の2」の「各Red・Blue・Green」) に変更記載されていること
を特徴とする前記第1〜29のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
30. A thirty-third image information three-dimensional processing apparatus or three-dimensional image information processing apparatus according to the present invention (in FIGS. 14, 19, and 38).
[25] or [28], wherein "at least one or more parts are installed in one dot part or one cell part"
(2 and 5 in FIG. 14, 34 and 80 in FIG. 19)
“The one dot portion, or any one or more dot portions including one cell portion, or
"At least one or more parts are installed to correspond to any one or more of the cell parts"("5/37 in Fig. 38 and" 3 2 "in each" Red, Blue, and Green "). The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to 29th aspects.

31、本発明の第31の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、
(図14、19、38に、おいて)
前記第25、もしくは、前記第28記載の
「前記1ドット部、もしくは、1セル部に 少なくとも1部以上が、対応するように設置」
(図14の2と5、図19の34と80)の記載部分が、
「前記1画素部を含んだ1以上のいずれかの画素部に 少なくとも1部以上が、対応するよ
うに設置」(図38の5・37と19)
に変更記載されていること
を特徴とする前記第1〜30のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
31, the thirty-first image information three-dimensional processing apparatus of the present invention, or the three-dimensional image information processing apparatus,
(In FIGS. 14, 19, and 38)
[25] or [28], wherein "at least one or more parts are installed in one dot part or one cell part"
(2 and 5 in FIG. 14, 34 and 80 in FIG. 19)
“Install at least one pixel unit corresponding to one or more pixel units including the one pixel unit” (5, 37 and 19 in FIG. 38).
The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to thirtyth aspects, wherein the three-dimensional image information processing apparatus is modified.

32、本発明の第32の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図18、20において)
前記第25記載の「箱O」(図18の5)、もしくは、前記第28記載の「囲壁P」(図20の37B)は、
「箱O」(図18の5)、もしくは、「囲壁P」(図20の37B)の少なくとも1部以上、もしくは、全体が、近似値内の方向へ、もしくは、近似値内の距離だけ 傾けられている箇所が、少なくとも1ヶ所以上 設置されている(図18の22・図20の42)こと
を特徴とする前記第1〜31のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
32. A thirty-second image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIGS. 18 and 20)
The “box O” according to the 25th (5 in FIG. 18) or the “enclosure P” according to the 28th (37B in FIG. 20)
At least one or more of “box O” (5 in FIG. 18) or “enclosure P” (37B in FIG. 20) or the whole is inclined in the direction within the approximate value or by the distance within the approximate value. The image information three-dimensional processing apparatus according to any one of the first to third aspects, wherein at least one place is installed (22 in FIG. 18 and 42 in FIG. 20), or A stereoscopic image information processing apparatus.

33、本発明の第33の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、)
前記第32記載の「近似値内の方向」が、
「少なくとも1部以上の部分が、近似値内とは、異なる方向」
「全く異なる方向」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、記載されていること
を特徴とする前記第1〜32のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
33, the thirty-third image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention)
The "direction within the approximate value" described in the 32nd is
"At least one part is in a different direction from the approximate value"
Of the "totally different directions"
The image information three-dimensional processing apparatus according to any one of the first to thirty-second aspects, which is described in one or more, one or more various combinations, or one or more various superpositions, Alternatively, it is a stereoscopic image information processing apparatus.

34、本発明の第34の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、)
前記第32記載の「近似値内の距離」が、
「少なくとも1部以上の部分が、近似値内とは、異なる距離」
「全く異なる距離」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、記載されていること
を特徴とする前記第1〜33のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
34, the 34th image information stereoscopic processing apparatus or stereoscopic image information processing apparatus of the present invention)
The “distance within the approximate value” described in Item 32 is
"At least one part is different from the approximate value"
Within a “totally different distance”
The image information three-dimensional processing apparatus according to any one of the first to thirty-third aspects, which is described in one or more, one or more various combinations, or one or more various superpositions, Alternatively, it is a stereoscopic image information processing apparatus.

35、本発明の第35の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図17・図19・図20において)
前記第25、もしくは、前記第28記載の
『「画像情報表示部内」のいずれか』(図19の31)
『「1ドット部、もしくは、1セル部」の 内部、もしくは、隣接外部の 各いずれか』
(図17の10・図19の34)
『「箱O」、もしくは、「囲壁P」の各開口部の いずれか』(図17の6・図20の36と40)、
『「箱O」、もしくは、「囲壁P」の各内部の いずれか』(図17の5・図20の37の各内部)、もしくは、
『前記各部相互に挟まれた間の いずれか』(図17の10・図19の80)
の内、少なくともいずれか1箇所以上に、
「カラーフィルター類」
「カラーフィルター類と 近似値内の機能を 保持している濾過光性塗料類」
「前記同機能を 保持している濾過光性膜類」、および、
「前記同機能を 保持している濾過光性透過物質類」
の 各少なくとも いずれかの1部以上、もしくは、全部の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、設置されていること
を特徴とする前記第1〜34のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
35. The thirty-fifth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIGS. 17, 19, and 20)
The “25th or 28th“ in the image information display section ”” (31 in FIG. 19)
“Either“ one dot part or one cell part ”, or each adjacent outside”
(10 in FIG. 17 and 34 in FIG. 19)
"Either of each opening of" box O "or" enclosure P "" (6 in FIG. 17 and 36 and 40 in FIG. 20),
“Either of“ inside of box O ”or“ enclosure P ”” (inside of each of 5 in FIG. 17 and 37 in FIG. 20), or
“One of the parts sandwiched between each other” (10 in FIG. 17 and 80 in FIG. 19)
Of which at least one of
"Color filters"
“Filtered light paints that maintain functions within the approximate range with color filters”
“Filtered optical membranes retaining the same function”, and
“Filtered light-transmitting substances having the same function”
1 or more of at least any one of the above, or all of the above, or one or more, various combinations of one or more of the above, or one or more of various superpositions. The image information stereoscopic processing apparatus or the stereoscopic image information processing apparatus according to any one of 1 to 34.

36、本発明の第36の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図38において)
「前記第25記載」の「箱O」(図38の5)、もしくは/および、「前記第28記載」の「囲壁P」(図38の37)の各内側側壁(図38の39)が、同内側側壁面の少なくとも3面以上から構成されている「箱O」(図38の5)、もしくは/および、「囲壁P」(図38の37)であること
を特徴とする前記第1〜35のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
36, the thirty-sixth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIG. 38)
Each of the inner side walls (39 in FIG. 38) of “Box O” (5 in FIG. 38) of “the 25th description” and / or “enclosure P” (37 in FIG. 38) of “the 28th description” The first box is characterized in that it is a “box O” (5 in FIG. 38) or / and “enclosure P” (37 in FIG. 38) composed of at least three of the inner side wall surfaces. 35. The image information three-dimensional processing apparatus according to any one of to 35 or a three-dimensional image information processing apparatus.

37、本発明の第37の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図38において)
前記第25記載の
「1画素内の1ドット部、もしくは、1セル部」(図38の三つ巴型の1つである2のRed)が、
同部内、もしくは、同部内に対応する可視自発光体類(図38の2のRed)を 直接的、もしくは、間接的に同部内で発光、もしくは、同部内を透過
(極めて簡単な代表的例として、プラズマ類であれば、蛍光体発光による同部内発光、および、同液晶類であれば、同部外バックライト類光を同部内液晶体印荷偏向による透過光)
させるための電極(プラス極とマイナス極)の計2極(図38のRedの3a・3b・3c・3d用発光電極)が、同部内に、少なくとも2極以上設置されている(図38の3a・3b・3c・3dの位置)「1画素内の1ドット部、もしくは、1セル部」(図38の2のRed)であること
を特徴とする前記第1〜36のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
37, the thirty-seventh image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIG. 38)
The “one dot portion or one cell portion in one pixel” (2 Red, which is one of the triplets in FIG. 38) described in the 25th,
Visible self-luminous substances (Red in FIG. 38) corresponding to the same part or light emitted from the same part or directly within the same part, or transmitted through the same part (a very simple representative example) In the case of plasmas, in-part light emission by phosphor emission, and in the case of the same liquid crystals, external backlight light from the same part is transmitted light by deflection of liquid crystal in the same part)
At least two or more electrodes (red electrodes 3a, 3b, 3c, and 3d of Red in FIG. 38) are installed in the same portion (positive and negative electrodes) (FIG. 38). 3a, 3b, 3c, and 3d) “One dot portion or one cell portion in one pixel” (Red in 2 in FIG. 38) Image information stereoscopic processing apparatus or stereoscopic image information processing apparatus.

38、本発明の第38の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図38に、おいて)
前記第25、もしくは、前記第28記載の
「1画素部」(図38の19)の記載部分が、
「1以上のいずれかのドット部、もしくは、同1以上のいずれかのセル部からなる
1画素部」(図38の19と「3個の2」の「各Red・Blue・Green」)
に変更記載されていること
を特徴とする前記第1〜37のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
38, the thirty-eight image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIG. 38)
The description part of "25th or 28th""1 pixel part" (19 in FIG. 38)
“One pixel portion consisting of one or more dot portions or one or more cell portions” (“Red, Blue, Green” of 19 and “three 2” in FIG. 38)
The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to 37, wherein the three-dimensional image information processing apparatus is modified.

後段各段落に、極めて簡単で、同基礎的各発明の効果1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ、の発明の効果が挙げられている。
(紙面数と先願主義の時間制約の都合上、技術模倣と基礎理解に必要なもののみに限り 可能な限り丁寧に、述べたつもりでいるが、該1以上と 同1以上の数々の組み合わせ効果・同応用効果・同応用事例・同連想効果、および、同連想事例などの 全てに渡って、残念ながら、公開できていない。しかし、極めて簡単で基礎的な本各効果と同各事例の各1以上と 同各1以上の数々の組み合わせ効果・同重ね合わせ効果・同応用効果・同応用事例・同連想効果、および、同連想事例は、当然、本明細書記載事項に、含まれている記載領域事項であることは、言うまでもない。)
以下、極めて簡単な例である 各図を持ちいて、説明すると、
Each paragraph in the subsequent stage lists the effects of the invention that are extremely simple and have the effects 1 or more of the basic inventions, various combinations of the same 1 or more, or various combinations of the same 1 or more.
(Because of the number of pages and time constraints of the prior application principle, I intend to say as carefully as possible only to those necessary for technology imitation and basic understanding. Unfortunately, it is not possible to publish all of the effects, application effects, application examples, association effects, and association examples, but the extremely simple and basic effects and Each one or more and one or more of each combination effect, the same overlay effect, the same application effect, the same application example, the associative effect, and the associative effect are naturally included in the items described in this specification. Needless to say, it is a matter of description area.)
The following is a very simple example with each figure.

1、本発明の効果を 挙げると 前記第1の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図1、2において、)
平面画像情報から 両形融合画像情報生成の為、
「大A」(図2のA)、「小B」(図2のB)を、 Cと Dに、各重ね合わせて
《極めて簡単な1例としてC(図2のC)に「大A」(図2のA)を重ね合わせ、D(図2のD)に「小B」(図2のB)を重ね合わせる。》、
「大A」(図2のA)と「小B」(図2のB)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図2のa)することにより「大A」(図2のA)「小B」(図2のB)間の両形融合画像情報・立体画像情報(図2のb)を得ることにおいて、
1. The effects of the present invention are as follows. The first three-dimensional image information holding object / image information three-dimensional processing apparatus or three-dimensional image information processing apparatus is
In order to generate bilateral fusion image information from planar image information,
“Large A” (A in FIG. 2) and “Small B” (B in FIG. 2) are superimposed on C and D, respectively.
As a very simple example, “large A” (A in FIG. 2) is superimposed on C (C in FIG. 2), and “small B” (B in FIG. 2) is superimposed on D (D in FIG. 2). . >>
Image information fusion ("a" in FIG. 2) having a difference in image information comparison between "similar / different image information" between "large A" (A in FIG. 2) and "small B" (B in FIG. 2) In order to obtain both-shaped fusion image information / stereoscopic image information (b in FIG. 2) between “large A” (A in FIG. 2) and “small B” (B in FIG. 2),

図2と同じ構成要因からなる図1においては、
「大A」(図1のA)「小B」(図1のB)間が、C(図1のC)とD(図1のD)に各重ね合わせて、両形融合画像情報による立体画像情報を得る位置範囲より「大A」(図1のA)「小B」(図1のB)間を さらに、左右・上下・斜め、のいずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、引き離して、C(図1のC)とD(図1のD)に各重ね合わせることにより、「大A」(図1のA)「小B」(図1のB)間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両形融合画像情報が起こらない位置範囲(図1のa)において、輻輳融合画像情報により画像情報融合(図1のbb)する
(以下、「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 1 consisting of the same components as FIG.
The “large A” (A in FIG. 1) and “small B” (B in FIG. 1) are superimposed on C (C in FIG. 1) and D (D in FIG. Between the “large A” (A in FIG. 1) and the “small B” (B in FIG. 1) from the position range from which the stereoscopic image information is obtained. By separating them in combination or in one or more different superpositions and superimposing them on C (C in FIG. 1) and D (D in FIG. 1), “large A” (A in FIG. 1) “ Although there is a difference in image information comparison between “similar / different image information” between “small B” (B in FIG. 1), the difference is too large, and thus a position range in which bimodal fusion image information does not occur ( In FIG. 1a, image information is fused (bb in FIG. 1) using the convergence fused image information (hereinafter referred to as “biconvergence fused image information based on bimodal fused image information). ")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報(図1のbb)が、空間画像情報の「空間深度画像情報」を持つ立体画像情報(図1のbb)として認識できる現象を 得ることができること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described actions can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, it is possible to obtain a phenomenon in which the convergence fusion image information (bb in FIG. 1) can be recognized as stereoscopic image information (bb in FIG. 1) having “spatial depth image information” of the spatial image information.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

2、本発明の効果を 挙げると 前記第2の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図3、4において、)
平面画像情報から 両組融合画像情報生成の為、
「組E」(図4のE)「組F」(図4のF)を、別の、少なくとも2つからなるCD(図4のCD)に、各重ね合わせて
(極めて簡単な1例としてC(図4のC)に「組E」(図4のE)を重ね合わせ、D(図4のD)に「組F」(図4のF)を重ね合わせる)、
「組E」(図4のE)と「組F」(図4のF)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図4のe)することにより「組E」(図4のE)「組F」(図4のF)間の両組融合画像情報・立体画像情報(図4のf)を得ることにおいて、
2. The effects of the present invention are as follows. The second stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 3 and 4)
To generate both sets of fusion image information from planar image information,
“Set E” (E in FIG. 4) and “Set F” (F in FIG. 4) are superposed on each other, at least two CDs (CD in FIG. 4) (as a very simple example) “Set E” (E in FIG. 4) is superimposed on C (C in FIG. 4), “Set F” (F in FIG. 4) is overlapped on D (D in FIG. 4),
Image information is merged ("e" in FIG. 4) having a difference in image information comparison between "same kind of different system image information" between "set E" (FIG. 4E) and "set F" (FIG. 4F). In order to obtain both sets of fused image information / stereoscopic image information (f in FIG. 4) between “set E” (E in FIG. 4) and “set F” (F in FIG. 4) by

図4と同じ構成要因からなる図3においては、
「組E」(図3のE)「組F」(図3のF)間が、C(図3のC)とD(図3のD)に各重ね合わせて、両組融合画像情報による立体画像情報を得る位置範囲より「組E」(図3のE)「組F」(図3のF)間を さらに、左右・上下・斜め、のいずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、引き離して、C(図3のC)とD(図3のD)に各重ね合わせることにより、「組E」(図3のE)「組F」(図3のF)間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両組融合画像情報が起こらない位置範囲(図3のe)において、輻輳融合画像情報により画像情報融合(図3のff)する
(以下、「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 3 consisting of the same components as FIG.
“Set E” (E in FIG. 3) and “Set F” (F in FIG. 3) are superimposed on C (C in FIG. 3) and D (D in FIG. Between the “set E” (E in FIG. 3) and the “set F” (F in FIG. 3) from the position range from which the stereoscopic image information is obtained. In combination or one or more different superpositions, they are separated and superposed on C (C in FIG. 3) and D (D in FIG. 3) to obtain “set E” (E in FIG. 3) “ Although there is a difference in the image information comparison between the “Faces F” (F in FIG. 3) between the “similar / different image information”, the difference is too large, and thus the position range in which both sets of fused image information do not occur ( In e) of FIG. 3, image information is fused (ff in FIG. 3) by the convergence fused image information (hereinafter, “both separated convergence fused image information by both sets fused image information”). ")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報(図3のff)が、空間画像情報の「空間突出度画像情報」を持つ立体画像情報(図3のff)として認識できる現象を得ることができること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described action can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, it is possible to obtain a phenomenon in which the convergence fusion image information (ff in FIG. 3) can be recognized as stereoscopic image information (ff in FIG. 3) having “spatial protrusion degree image information” of the spatial image information.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

3、本発明の効果を 挙げると 前記第3の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図5、6において)
平面画像情報から 両形組融合画像情報生成の為、
『前記第1、2の各組み合わせを除く「大A」(図6のA)「小B」(図6のB)「組E」(図6のE)「組F」(図6のF)』間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた「混G」、「混H」(図6のG,H)を、
C(図6のC)とD(図6のD)に、各重ね合わせて
《極めて簡単な1例としてC(図6のC)に「混G」(図6のG)を重ね合わせ、D(図6のD)に「混H」(図6のH)を重ね合わせる》、
「混G」(図6のG)「混H」(図6のH)間の1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つからなる「同種異系画像情報」同士の画像情報比較で、差異を持ち画像情報融合(図6のg)することにより、「混G」(図6のG)「混H」(図6のH)間の両形組融合画像情報・立体画像情報(図6のh)を得ることにおいて、
3. When the effects of the present invention are mentioned, the third stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 5 and 6)
In order to generate both-form combination image information from planar image information,
“Except for the first and second combinations,“ large A ”(A in FIG. 6)“ small B ”(B in FIG. 6)“ set E ”(E in FIG. 6)“ set F ”(F in FIG. 6) ) ”In one or more various combinations, or“ Mixed G ”and“ Mixed H ”(G, H in FIG. 6) divided into at least two by overlapping,
C (C in FIG. 6) and D (D in FIG. 6) are superposed on each other. << As a very simple example, "Mixed G" (G in FIG. 6) is superposed on C (C in FIG. 6). D (D of FIG. 6) is superposed with “Mixed H” (H of FIG. 6) >>
One or more various combinations between “mixed G” (G in FIG. 6) and “mixed H” (H in FIG. 6), or images of at least two “similar heterogeneous image information” by the same overlay In the information comparison, the image information is merged (g in FIG. 6) with a difference, so that the mixed image information / stereoscopic information between “mixed G” (G in FIG. 6) and “mixed H” (H in FIG. 6) is obtained. In obtaining image information (h in FIG. 6),

図6と同じ構成要因からなる図5においては、
「混G」(図5のG)「混H」(図5のH)間が、C(図5のC)とD(図5のD)に各重ね合わせて、両形組融合画像情報による立体画像情報を得る位置範囲より
「混G」(図5のG)「混H」(図5のH)間を さらに、左右・上下・斜め、のいずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、引き離して、C(図5のC)とD(図5のD)に各重ね合わせることにより、
「混G」(図5のG)「混H」(図5のH)間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両形組融合画像情報が起こらない位置範囲(図5のg)において、輻輳融合画像情報により画像情報融合(図5のhh)する(以下、「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 5 consisting of the same components as FIG.
“Mixed G” (G in FIG. 5) and “Mixed H” (H in FIG. 5) are superimposed on C (C in FIG. 5) and D (D in FIG. 5), respectively, so From the position range where stereo image information is obtained, the distance between “Mixed G” (G in FIG. 5) and “Mixed H” (H in FIG. 5) is further changed to one or more of left, right, up, down, and diagonal, and one or more of the same. In a combination, or in one or more various superpositions, they are separated and superposed on C (C in FIG. 5) and D (D in FIG. 5),
Although there is a difference in the image information comparison between “same kind of different image information” between “mixed G” (G in FIG. 5) and “mixed H” (H in FIG. 5), the difference is too large. In the position range (g in FIG. 5) where the both-shaped set fusion image information does not occur, image information fusion (hh in FIG. 5) is performed using the convergence-fused image information (hereinafter referred to as “both separated convergence-fused images based on both-form set fusion image information”). Called "information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報(図5のhh)が、空間画像情報の「空間歪性度画像情報」を持つ立体画像情報(図5のhh)として認識できる現象を得ることができること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described action can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, it is possible to obtain a phenomenon in which the convergence fused image information (hh in FIG. 5) can be recognized as stereoscopic image information (hh in FIG. 5) having the “spatial distortion degree image information” of the spatial image information.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

4、本発明の効果を 挙げると 前記第4の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図2、7、8、13において)
平面画像情報から 両形融合画像情報生成の為、
「大A」(図2のA)「小B」(図2のB)に2分し、「大A」(図2のA)と「小B」(図2のB)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図2のa)することにより「大A」(図2のA)「小B」(図2のB)間の両形融合画像情報・立体画像情報(図2のb)を得ることにおいて、
図8において、少なくとも1つからなる「画像の像形状画像情報種」(図8のQ)を縦方向に沿って、横方向に分け目を入れる様に分けられた少なくとも2つ以上からなる形状に細分し(図8のQa〜Qg)
《極めて簡単な1例として、正方形型「画像の像形状画像情報種」(図8のQ)を、横長の細い長方形型「画像の像形状画像情報種」に細分する(図8のQa〜Qg)》、、
この細分された「画像の像形状画像情報種」(図8のQa〜Qg)を それぞれの細分ごとに「大形像系画像情報」(図8のIa〜Is)と「小形像系画像情報」(図8のJb〜Jt)の少なくとも2つに分け
《以下、この細分ごとに少なくとも2つに分けられたものの内 「大形像系画像情報」を「細I」(図8のI)、同「小形像系画像情報」を「細J」(図8のJ)と呼称する。また、順序を変え「大A」(図2のA)「小B」(図2のB)を双方同様、双方同間隔に細分化しても「細I」(図8のIa〜Is)「細J」(図8のJb〜Jt)を得られ、同じことになる。》
「細I」(図8のI)「細J」(図8のJ)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図8のi)することにより「細I」(図8のI)「細J」(図8のJ)間の両形融合画像情報・立体画像情報(図8のj)を得ることにおいて、
4. The effects of the present invention are as follows. The fourth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 2, 7, 8, and 13).
In order to generate bilateral fusion image information from planar image information,
Divide into “Large A” (A in FIG. 2) and “Small B” (B in FIG. 2). Both forms of “large A” (A in FIG. 2) and “small B” (in FIG. 2) are obtained by having a difference in image information comparison between “different image information” and fusing the image information (a in FIG. 2). In obtaining fusion image information / stereoscopic image information (b in FIG. 2),
In FIG. 8, at least one “image shape image information type of image” (Q in FIG. 8) is formed into a shape composed of at least two or more divided so as to be divided in the horizontal direction along the vertical direction. Subdivide (Qa to Qg in Fig. 8)
As a very simple example, the square type “image shape image information type of image” (Q in FIG. 8) is subdivided into a horizontally long and thin rectangular type “image shape image information type of image” (Qa˜ in FIG. 8). Qg) >>
The subdivided “image shape image information type of image” (Qa to Qg in FIG. 8) is divided into “large image system image information” (Ia to Is in FIG. 8) and “small image system image” for each subdivision. Information ”(Jb to Jt in FIG. 8) << Hereafter,“ Large image system image information ”is divided into“ Fine I ”(I in FIG. 8). ) And “small image system image information” are referred to as “thin J” (J in FIG. 8). Further, even if the order is changed and “Large A” (A in FIG. 2) and “Small B” (B in FIG. 2) are both subdivided into the same interval, “Fine I” (Ia to Is in FIG. 8) “ Narrow J "(Jb to Jt in FIG. 8) is obtained, and the same thing is obtained. >>
By comparing image information between “similar / different image information” between “Fine I” (I in FIG. 8) and “Fine J” (J in FIG. 8), the image information is fused (i in FIG. 8). In obtaining both-shaped fusion image information / stereoscopic image information (j in FIG. 8) between “Fine I” (I in FIG. 8) and “Fine J” (J in FIG. 8),

図8と同じ構成要因からなる図7においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「細I」(図7のIa〜Isの内、いずれか1つ以上)「細J」(図7のJb〜Jtの内、いずれか1つ以上)間に置いて、
前記「細I」(図7のIa〜Is)「細J」(図7のJb〜Jt)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより
《図7内にある図13の52の大の谷型図形(図7のI)と同小の谷型図形(図7のJ)》、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形融合画像情報による立体画像情報が得られない時(図7のia〜is)
(両形融合画像情報可能な差異範囲を、超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図7のjjb〜jjt)
(以下、両形融合画像情報と上下「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 7, which consists of the same components as FIG. 8,
At least one or more “fine I” in “image shape image information type of image” (any one or more of Ia to Is in FIG. 7) “fine J” (of Jb to Jt in FIG. 7, Any one or more)
By further separating the “Fine I” (Ia to Is in FIG. 7) and “Fine J” (Jb to Jt in FIG. 7), the difference in image information comparison between “similar image information” increases. The large valley-shaped figure 52 in FIG. 13 (I in FIG. 7) and the small valley-shaped figure (J in FIG. 7) in FIG.
(Despite having a difference, the difference is too large)
When 3D image information cannot be obtained from the bimodal fusion image information (ia to is in FIG. 7)
(When there is a difference that exceeds the difference range that can be combined image information of both forms),
Image information is fused by the convergence fused image information (jjb to jjt in FIG. 7).
(Hereinafter referred to as double-shaped fusion image information and upper and lower "double deconvergence fusion image information by double-shaped fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報(図7のjj)が、該観察視聴者目前まで、少なくとも 上下いずれかに、連続して迫ることが可能な空間画像情報内の「空間深度画像情報」を持つ立体画像情報(図7のjj)として認識できる現象を 得ることができること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described actions can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, the convergence fusion image information (jj in FIG. 7) has “spatial depth image information” in the spatial image information that can be continuously approached at least either up or down to the front of the viewer. It is possible to obtain a phenomenon that can be recognized as stereoscopic image information (jj in FIG. 7).

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

5、本発明の効果を 挙げると 前記第5の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図4、8、9、10、13において)
平面画像情報から 両組融合画像情報生成の為、
「組E」(図4のE)「組F」(図4のF)に2分し、「組E」(図4のE)と「組F」(図4のF)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図4のe)することにより「組E」(図4のE)「組F」(図4のF)間の両組融合画像情報・立体画像情報(図4のf)を得ることにおいて、
「細I」(図8のIa〜Is)「細J」(図8のJb〜Jt)から、横細分された前記似の両組融合画像情報(図10のl)を得るため「少なくとも2組の組形像系画像情報」を作り出し(図10のKa〜Ks、Lb〜Lt)
《以下、この少なくとも2組の内の1組を「細K」(図10のK)他の1組を「細L」(図10のL)と呼称する。また、順番を変え「組E」(図4のE)「組F」(図4のF)を双方同様、双方同間隔に横細分化しても「細K」(図10のK)「細L」(図10のL)が得られ、同じことになる。》
「細K」(図10のK)「細L」(図10のL)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図10のk)することにより「細K」(図10のK)「細L」(図10のL)間の両組融合画像情報・立体画像情報(図10のl)を得ることにおいて、
5. When the effects of the present invention are mentioned, the fifth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 4, 8, 9, 10, and 13).
To generate both sets of fusion image information from planar image information,
Divided into “set E” (FIG. 4E) and “set F” (FIG. 4F), “same type between“ set E ”(FIG. 4E) and“ set F ”(FIG. 4F) Both sets between "set E" (Fig. 4E) and "set F" (Fig. 4F) have a difference in image information comparison between "different image information" and are fused (Fig. 4e). In obtaining fusion image information / stereoscopic image information (f in FIG. 4),
From “Fine I” (Ia to Is in FIG. 8) and “Fine J” (Jb to Jt in FIG. 8), in order to obtain the similar fused image information (l in FIG. 10) that is subdivided horizontally, “at least 2 A set of combined image system image information ”(Ka to Ks, Lb to Lt in FIG. 10)
<< Hereafter, one of the at least two sets is referred to as “Fine K” (K in FIG. 10), and the other one is referred to as “Fine L” (L in FIG. 10). Also, even if the order is changed and “set E” (E in FIG. 4) and “set F” (F in FIG. 4) are both subdivided at the same interval, “fine K” (K in FIG. 10) “fine” L "(L in FIG. 10) is obtained and will be the same. >>
By combining image information (k in FIG. 10) with a difference in image information comparison between “similar / different image information” between “thin K” (K in FIG. 10) and “thin L” (L in FIG. 10). In obtaining both sets of fused image information / stereoscopic image information (l in FIG. 10) between “thin K” (K in FIG. 10) and “thin L” (L in FIG. 10),

図10と同じ構成要因からなる図9においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「細K」(図9のKa〜Ksの内、いずれか1つ以上)「細L」(図9のLb〜Ltの内、いずれか1つ以上)間に置いて、
前記「細K」(図9のKa〜Ks)「細L」(図9のLb〜Lt)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより《図9内にある図13の51の左右2つの山型図形(図9のK、L)》、、
(差異を持ちながらも、該差異が、大きすぎるため)、
両組融合画像情報による立体画像情報が得られない時(図9のka〜ks間)
(両組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図9のllb〜llt)
(以下、両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 9 consisting of the same components as FIG.
At least one or more “fine K” in “image shape image information type of image” (any one or more of Ka to Ks in FIG. 9) “fine L” (of Lb to Lt in FIG. Any one or more)
By further separating the “thin K” (Ka to Ks in FIG. 9) and “thin L” (Lb to Lt in FIG. 9), the difference in image information comparison between “similar heterogeneous image information” increases. 9, two left and right chevron figures (K, L in FIG. 9) in FIG.
(Despite having a difference, the difference is too large)
When stereoscopic image information based on both sets of fused image information cannot be obtained (between ka and ks in FIG. 9)
(When the difference is in the range beyond the difference range that can be combined image information of both sets),
The image information is fused by the convergence fused image information (llb to llt in FIG. 9).
(Hereinafter, both sets of fusion image information and upper and lower "double deconvergence fusion image information by both sets of fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報(図9のll)が、該観察視聴者目前まで、少なくとも 上下いずれかに、連続して迫ることが可能な空間画像情報内の「空間突出度画像情報」を持つ立体画像情報(図9のll)として認識できる現象を 得ることができること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described action can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, the convergence fusion image information (ll in FIG. 9) indicates “spatial protrusion degree image information” in the spatial image information that can be continuously approached at least either up or down before the viewer. It is possible to obtain a phenomenon that can be recognized as stereoscopic image information (ll in FIG. 9).

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

6、本発明の効果を 挙げると前記第6の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図8、10、11、12、13において)
平面画像情報から 両形組融合画像情報生成の為、
『前記第5、6の各組み合わせを除く「細I」(図8のIa〜Is)「細J」(図8のJb〜Jt)「細K」(図10のKa〜Kd)「細L」(図10のLa〜Ld)間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる、少なくとも2つに分け、(図12のMa〜Ms、Nb〜Nt)《以下、この少なくとも2つに分けられたものを 各々「混M」(図12のM)「混N」(図12のN)と呼称する》
「混M」(図12のM)「混N」(図12のN)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図12のm)することにより「混M」(図12のM)「混N」(図12のN)間の両形組融合画像情報・立体画像情報(図12のn)を得ることにおいて、
6. When the effects of the present invention are mentioned, the sixth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 8, 10, 11, 12, 13).
In order to generate both-form combination image information from planar image information,
“Excluding the fifth and sixth combinations“ Fine I ”(Ia to Is in FIG. 8)“ Fine J ”(Jb to Jt in FIG. 8)“ Fine K ”(Ka to Kd in FIG. 10)“ Fine L ”(La to Ld in FIG. 10) are divided into at least two by one or more various combinations or overlapping, (Ma to Ms, Nb to Nt in FIG. 12) << Hereafter, at least two of these These are divided into “Mix M” (M in FIG. 12) and “Mix N” (N in FIG. 12).
By combining image information (m in FIG. 12) having a difference in image information comparison between “same kind of different image information” between “mixed M” (M in FIG. 12) and “mixed N” (N in FIG. 12). In obtaining both-form combination image information / stereoscopic image information (n in FIG. 12) between “Mix M” (M in FIG. 12) and “Mix N” (N in FIG. 12),

図12と同じ構成要因からなる図11においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「混M」(図11のMa〜Msの内、いずれか1つ以上)「混N」(図11のNb〜Ntの内、いずれか1つ以上)間において、
前記「混M」(図11のMa〜Msの内、いずれか1つ以上)「混N」(図11のNb〜Ntの内、いずれか1つ以上)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で、差異が大きくなることにより、
《図11内にある図13の52の大の谷型図形(図11のM)と同小の谷型図形(図11のN)》、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形組融合画像情報による立体画像情報が得られない時(図11のm、ma〜ms )
(両形組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図11のnn、nnb〜nnt)
(以下、両形組融合画像情報と上下「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 11 consisting of the same components as FIG. 12,
At least one or more “mixed M” in “image shape image information type of image” (any one or more of Ma to Ms in FIG. 11) “mixed N” (of Nb to Nt in FIG. 11, Between any one or more)
The “mixed M” (any one or more of Ma to Ms in FIG. 11) and the “mixed N” (any one or more of Nb to Nt in FIG. 11) are further separated, By comparing the image information between the "image information",
<< the large valley-shaped figure of 52 of FIG. 13 in FIG. 11 (M of FIG. 11) and the same valley-shaped figure (N of FIG. 11) >>
(Despite having a difference, the difference is too large)
When 3D image information cannot be obtained by using both-form combination image information (m, ma to ms in FIG. 11).
(When there is the difference in the range that exceeds the difference range that can be combined image information of both forms)
Image information is fused by the convergence fused image information (nn, nnb to nnt in FIG. 11).
(Hereinafter referred to as both-form set fusion image information and upper and lower "both deconvergence fusion image information by both-form set fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報が、該観察視聴者目前まで、少なくとも 上下いずれかに、連続して迫ることが可能な空間画像情報内の「空間歪性度画像情報」を持つ立体画像情報(図11のnn)として認識できる現象を 得ることができること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described actions can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, the 3D image information having “spatial distortion image information” in the spatial image information in which the convergence fusion image information can be continuously approached at least one of up and down before the observation viewer ( A phenomenon that can be recognized as nn) in FIG.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

7、本発明の効果を 挙げると前記第7の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図2、28、29において)
平面画像情報から 両形融合画像情報生成の為、
「大A」(図2のA)「小B」(図2のB)に2分し、「大A」(図2のA)と「小B」(図2のB)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図2のa)することにより「大A」(図2のA)「小B」(図2のB)間の両形融合画像情報・立体画像情報(図2のb)を得ることにおいて、
図29において、
少なくとも1つからなる「画像の像形状画像情報種」(図29のX)を縦方向に沿って横方向に分け目を入れる様に分けられた少なくとも2つ以上からなる形状に細分し(図29のXa〜Xg)
《極めて簡単な1例として、正方形型「画像の像形状画像情報種」(図29のX)を、横長の細い長方形型「画像の像形状画像情報種」に細分する(図29のXa〜Xg)》、
この細分された「画像の像形状画像情報種」(図29のXa〜Xg)から、「両形融合画像情報」の融合を起こさせる(図2のaからbへの変化)ために、 それぞれの細分ごとに「大形像系画像情報」(図29のRa〜Rs)と「小形像系画像情報」(図29のSb〜St)の少なくとも2つに分け
《以下、この細分ごとに少なくとも2つに分けられたものの内 「大形像系画像情報」を「細R」(図29のR)、同「小形像系画像情報」を「細S」(図29のS)と呼称する。また、順序を変え「大A」(図2のA)「小B」(図2のB)を双方同様、双方同間隔に細分化しても「細R」(図29のRa〜Rs)「細S」(図29のSb〜St)を得られ、同じことになる。》
「細R」(図29のR)「細S」(図29のS)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図29のr)することにより「細R」(図29のR)「細S」(図29のS)間の両形融合画像情報・立体画像情報(図29のs)を得ることにおいて、
7. When the effects of the present invention are mentioned, the seventh stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 2, 28, 29)
In order to generate bilateral fusion image information from planar image information,
Divide into “Large A” (A in FIG. 2) and “Small B” (B in FIG. 2). Both forms of “large A” (A in FIG. 2) and “small B” (in FIG. 2) are obtained by having a difference in image information comparison between “different image information” and fusing the image information (a in FIG. 2). In obtaining fusion image information / stereoscopic image information (b in FIG. 2),
In FIG.
At least one “image shape image information type of image” (X in FIG. 29) is subdivided into at least two or more shapes divided so as to be divided in the horizontal direction along the vertical direction (FIG. 29). Xa to Xg)
As an extremely simple example, the square type “image shape image information type of image” (X in FIG. 29) is subdivided into a horizontally long rectangular type “image shape image information type of image” (Xa in FIG. 29). Xg) >>
In order to cause the fusion of “both-shaped fusion image information” (change from a to b in FIG. 2) from the subdivided “image shape image information type of image” (Xa to Xg in FIG. 29), Are divided into at least two of “large image system image information” (Ra to Rs in FIG. 29) and “small image system image information” (Sb to St in FIG. 29) << hereinafter, each subdivision Of those divided into at least two, “Large Image System Image Information” is “Fine R” (R in FIG. 29), and “Small Image System Image Information” is “Fine S” (S in FIG. 29). Call it. Further, even if the order is changed and “Large A” (A in FIG. 2) and “Small B” (B in FIG. 2) are subdivided at the same interval, “Fine R” (Ra to Rs in FIG. 29) “ Narrow S ”(Sb to St in FIG. 29) is obtained, and the same thing is obtained. >>
By comparing image information of “similar / different image information” between “fine R” (R in FIG. 29) and “fine S” (S in FIG. 29), image information is fused (r in FIG. 29). In obtaining both-shaped fusion image information and stereoscopic image information (s in FIG. 29) between “thin R” (R in FIG. 29) and “thin S” (S in FIG. 29),

図29と同じ構成要因からなる図28においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「細R」(図28のRa〜Rsの内、いずれか1つ以上)「細S」(図28のSb〜Stの内、いずれか1つ以上)間において、
前記「細R」(図28のRa〜Rs)「細S」(図28のSb〜St)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
「同種異系画像情報」同士の画像情報比較で差異が大きいため
(差異を持ちながらも、該差異が、大きすぎるため)、
両形融合画像情報による立体画像情報が得られない時(図28のra〜rs)
(両形融合画像情報可能な差異範囲を、超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図28のssb〜sst)
(以下、両形融合画像情報と左右「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 28 consisting of the same components as FIG. 29,
At least one or more “fine R” in “image shape image information type of image” (any one or more of Ra to Rs in FIG. 28) “fine S” (of Sb to St in FIG. 28, Between any one or more)
By further separating the “thin R” (Ra to Rs in FIG. 28) and the “thin S” (Sb to St in FIG. 28), the difference in image information comparison between “similar / different image information” increases.
Because there is a large difference in the image information comparison between “same kind of different image information” (because there is a difference, the difference is too large)
When 3D image information cannot be obtained based on the bimodal fusion image information (ra to rs in FIG. 28).
(When there is a difference that exceeds the difference range that can be combined image information of both forms),
Image information is fused by the convergence fused image information (ssb to sst in FIG. 28).
(Hereinafter referred to as double-shaped fusion image information and left and right "biconvergence fusion image information based on double-shaped fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報(図28のss)が、該観察視聴者目前まで、少なくとも 左右いずれかに、連続して迫ることが可能な空間画像情報内の「空間深度画像情報」を持つ立体画像情報(図28のss)として認識できる現象を 得ることができる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described actions can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, the convergence fusion image information (ss in FIG. 28) has “spatial depth image information” in the spatial image information that can be continuously approached to at least one of the left and right before the viewer. A phenomenon that can be recognized as stereoscopic image information (ss in FIG. 28) can be obtained.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

8、本発明の効果を 挙げると前記第8の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図4、29、30、31において)
平面画像情報から 両組融合画像情報生成の為、
「組E」(図4のE)「組F」(図4のF)に2分し、「組E」(図4のE)と「組F」(図4のF)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図4のe)することにより「組E」(図4のE)「組F」(図4のF)間の両組融合画像情報・立体画像情報(図4のf)を得ることにおいて、
「細R」(図29のRa〜Rs)「細S」(図29のSb〜St)から、縦細分された前記似の両組融合画像情報(図31のu)を得るため「少なくとも2組の組形像系画像情報」を作り出し(図31のTa〜Ts、Ub〜Ut)
《以下、この少なくとも2組の内の1組を「細T」(図31のT)他の1組を「細U」(図31のU)と呼称する。また、順番を変え「組E」(図4のE)「組F」(図4のF)を双方同様、双方同間隔に縦細分化しても「細T」(図31のT)「細U」(図31のU)が得られ、同じことになる。》
「細T」(図31のT)「細U」(図31のU)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図31のt)することにより「細T」(図31のT)「細U」(図31のU)間の両組融合画像情報・立体画像情報(図31のu)を得ることにおいて、図31と同じ構成要因からなる図30においては、
「画像の像形状画像情報種」内の 少なくとも1つ以上の「細T」(図30のTa〜Tsの内、いずれか1つ以上)「細U」(図30のUb〜Utの内、いずれか1つ以上)間に置いて、前記「細T」(図30のTa〜Ts)「細U」(図30のUb〜Ut)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両組融合画像情報による立体画像情報が得られない時(図30のta〜ts間)
(両組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図30のuub〜uut)
(以下、両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
8. When the effect of the present invention is mentioned, the eighth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 4, 29, 30, 31).
To generate both sets of fusion image information from planar image information,
Divided into “set E” (FIG. 4E) and “set F” (FIG. 4F), “same type between“ set E ”(FIG. 4E) and“ set F ”(FIG. 4F) Both sets between "set E" (Fig. 4E) and "set F" (Fig. 4F) have a difference in image information comparison between "different image information" and are fused (Fig. 4e). In obtaining fusion image information / stereoscopic image information (f in FIG. 4),
In order to obtain the above similar fused image information (u in FIG. 31) vertically subdivided from “Fine R” (Ra to Rs in FIG. 29) and “Fine S” (Sb to St in FIG. 29), “at least 2 A set of combined image system image information ”(Ta to Ts, Ub to Ut in FIG. 31)
<< Hereafter, one of the at least two sets will be referred to as “thin T” (T in FIG. 31) and the other set will be referred to as “thin U” (U in FIG. 31). Further, even if the order is changed and “set E” (E in FIG. 4) and “set F” (F in FIG. 4) are both subdivided vertically at the same interval, “fine T” (T in FIG. 31) “fine” U "(U in FIG. 31) is obtained and will be the same. >>
By combining image information (t in FIG. 31) with a difference in image information comparison between “similar / different image information” between “thin T” (T in FIG. 31) and “thin U” (U in FIG. 31). In obtaining both sets of fused image information / stereoscopic image information (u in FIG. 31) between “thin T” (T in FIG. 31) and “thin U” (U in FIG. 31), the same configuration factors as in FIG. In FIG.
At least one or more “fine T” in “image shape image information type of image” (any one or more of Ta to Ts in FIG. 30) “fine U” (of Ub to Ut in FIG. Between the “thin T” (Ta to Ts in FIG. 30) and “thin U” (Ub to Ut in FIG. 30). Due to the large difference in image information comparison,
(Despite having a difference, the difference is too large)
When stereoscopic image information based on both sets of fused image information cannot be obtained (between ta and ts in FIG. 30)
(When the difference is in the range beyond the difference range that can be combined image information of both sets),
Image information is fused by the convergence fused image information (uub to uut in FIG. 30).
(Hereinafter, both sets of fusion image information and left and right "both deconvergence fusion image information by both sets of fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報(図30のuu)が、該観察視聴者目前まで、少なくとも 左右いずれかに、連続して迫ることが可能な空間画像情報内の「空間突出度画像情報」を持つ立体画像情報(図30のuu)として認識できる現象を 得ることができる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described action can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, the convergence fusion image information (uu in FIG. 30) indicates “spatial protrusion degree image information” in the spatial image information that can be continuously approached to at least one of the left and right before the viewer. A phenomenon that can be recognized as stereoscopic image information (uu in FIG. 30) can be obtained.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

9、本発明の効果を 挙げると前記第9の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図29、31、32、33において)
平面画像情報から 両形組融合画像情報生成の為、
『前記第7、8の各組み合わせを除く「細R」(図29のRa〜Rs)「細S」(図29のSb〜St)「細T」(図31のTa〜Td)「細U」(図31のUb〜Ut)間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる、少なくとも2つに分け、(図33のVa〜Vs、Wb〜Wt)《以下、この少なくとも2つに分けられたものを各々「混V」(図33のV)「混W」(図33のW)と呼称する》
「混V」(図33のV)「混W」(図33のW)間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(図33のv)することにより「混V」(図33のV)「混W」(図33のW)間の立体画像情報(図33のw)を得ることにおいて、
9. When the effects of the present invention are mentioned, the ninth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 29, 31, 32, and 33).
In order to generate both-form combination image information from planar image information,
“Narrow R” (Ra to Rs in FIG. 29) “Narrow S” (Sb to St in FIG. 29) “Narrow T” (Ta to Td in FIG. 31) “Narrow U” excluding the seventh and eighth combinations ”(Ub to Ut in FIG. 31) are divided into at least two by one or more various combinations or overlapping, (Va to Vs, Wb to Wt in FIG. 33) << Hereafter, at least two of these These are divided into “mixed V” (V in FIG. 33) and “mixed W” (W in FIG. 33) >>
By combining the image information (v in FIG. 33) with a difference in the image information comparison between the “homogeneous image information” between “mixed V” (V in FIG. 33) and “mixed W” (W in FIG. 33). In obtaining stereoscopic image information (w in FIG. 33) between “mixed V” (V in FIG. 33) and “mixed W” (W in FIG. 33),

図33と同じ構成要因からなる図32においては、
「画像の像形状画像情報種」内の少なくとも1つ以上の「混V」(図32のVa〜Vsの内、いずれか1つ以上)「混W」(図32のWb〜Wtの内、いずれか1つ以上)間において、前記「混V」(図32のVa〜Vsの内、いずれか1つ以上)「混W」(図32のWb〜Wtの内、いずれか1つ以上)間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で、差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形組融合画像情報による立体画像情報が得られない時(図32のva〜vs )
(両形組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する(図32のww、wwb〜wwt)
(以下、両形組融合画像情報と左右「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
In FIG. 32 consisting of the same components as FIG. 33,
At least one or more “mixed V” in “image shape image information type of image” (any one or more of Va to Vs in FIG. 32) “mixed W” (of Wb to Wt in FIG. 32, Between any one or more), “Mixed V” (any one or more of Va to Vs in FIG. 32) “Mixed W” (any one or more of Wb to Wt in FIG. 32) By further separating the gaps, and by comparing the image information between the “similar and different image information”,
(Despite having a difference, the difference is too large)
When 3D image information cannot be obtained based on the bimodal combination image information (va to vs in FIG. 32).
(When there is the difference in the range that exceeds the difference range that can be combined image information of both forms)
Image information is fused by the convergence fused image information (ww, wwb to wwt in FIG. 32).
(Hereinafter referred to as double-shaped set fusion image information and left and right "biconvergence fusion image information based on double-type set fusion image information")
Any one or more of the image information signal and the image information light, or the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、両眼視差画像情報では可能な 目前まで飛び出すレベル領域で、表示面に、対して、想定表示面が、平行となるように切り取った同表示面上において、前記輻輳融合画像情報(図32のww)が、該観察視聴者目前まで、少なくとも 左右いずれかに、連続して迫ることが可能な空間画像情報内の「空間歪性度画像情報」を持つ立体画像情報(図32のww)として認識できる現象を 得ることができる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since the above-described actions can be performed in some ways, the same display surface is cut out so that the assumed display surface is parallel to the display surface in a level region that pops out to the immediate extent possible with binocular parallax image information. In the above, the “spatial distortion image information” in the spatial image information in which the convergence fused image information (ww in FIG. 32) can be continuously approached at least to the left or right until the viewer / viewer. A phenomenon that can be recognized as stereoscopic image information (ww in FIG. 32) can be obtained.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among these effects, the present invention is a stereoscopic image information holding object / image information stereoscopic processing apparatus or a stereoscopic image information processing apparatus that has the effects of various combinations of one or more and the same one or more.

10、本発明の効果を 挙げると前記第10の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、
(図1、2、3、4、5、6、7、9、11、28、30、32、34、35、36および、37において)
「両形融合画像情報」(図2のb)、
「両組融合画像情報」(図4のf)、
「両形組融合画像情報」(図6のh)、
前記第1記載の「両形融合画像情報による両離輻輳融合画像情報」(図1のbb)、
前記第2記載の「両組融合画像情報による両離輻輳融合画像情報」(図3のff)、
前記第3記載の「両形組融合画像情報による両離輻輳融合画像情報」、(図5のhh)、
前記第4記載の『両形融合画像情報と上下「両形融合画像情報による両離輻輳融合画像情報」』(図7のjj)、
前記第5記載の『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』(図9のll)、
前記第6記載の『両形組融合画像情報と上下「両形組融合画像情報による両離輻輳融合画像情報」』、(図11のnn、)、
前記第7記載の『両形融合画像情報と左右「両形融合画像情報による両離輻輳融合画像情報」』(図28のss)、
前記第8記載の『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』(図30のuu)、
および、
前記第9記載の『両形組融合画像情報と左右「両形組融合画像情報による両離輻輳融合画像情報」』、(図32のww)、の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、構成されている
10. When the effects of the present invention are given, the tenth stereoscopic image information holding object / image information stereoscopic processing device, or stereoscopic image information processing device,
(In FIGS. 1, 2, 3, 4, 5, 6, 7, 9, 11, 28, 30, 32, 34, 35, 36 and 37)
“Both-shaped fusion image information” (FIG. 2 b),
“Both-set fusion image information” (f in FIG. 4),
“Both-type combined image information” (h in FIG. 6),
The “both deconvergence fusion image information based on the bilateral fusion image information” (bb in FIG. 1),
“Both deconvergence fusion image information based on both sets of fusion image information” (ff in FIG. 3),
“Both deconvergence fusion image information based on both-shape set fusion image information”, (hh in FIG. 5),
“Dual fusion image information and upper and lower“ both deconvergence fusion image information by bimodal fusion image information ”” (jj in FIG. 7),
“Both-set fusion image information and upper and lower“ both deconvergence fusion image information by both-set fusion image information ”” (11 in FIG. 9),
“Dual form fusion image information and upper and lower“ both deconvergence fusion image information by both form fusion image information ”” described in the sixth section, (nn in FIG. 11),
“Dual form fusion image information and left and right“ both deconvergence fusion image information by double form fusion image information ”” (ss in FIG. 28),
“Both-set fusion image information and left and right“ both deconvergence fusion image information by both-set fusion image information ”” (uu in FIG. 30),
and,
Of the above-mentioned “both forms combined image information and left and right“ both deconvergence fused image information based on both forms combined image information ”” (ww in FIG. 32),
It is composed of one or more, various combinations of one or more, or one or more various combinations.

《極めて簡単な例で、説明すると、図35は、
図9の左右2つの山型図形(図9のK、L)を 図13の52 の左右2つの谷型図形で実現した『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』に、
『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』である
図30のT、Uの両離輻輳融合画像情報を そのまま重ね融合させた複合図形である図35のY3、Y4である。
図35のY3、Y4間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図35のy3)ことにより図35の「Y3の402a」 などの補間部分が、必要な図35のY3、Y4間の両離輻輳融合画像情報(図35のy4)を表している。
<< In an extremely simple example, FIG.
The two left and right mountain-shaped figures (K and L in FIG. 9) are realized by the two left and right valley-shaped figures in FIG. Fusion image information ””
FIG. 35, which is a composite figure obtained by superimposing and merging both the deconvergence fusion image information of T and U in FIG. Y3 and Y4.
Interpolation portions such as “Y3 402a” in FIG. 35 are obtained by merging image information (y3 in FIG. 35) with a difference in image information comparison between “similar / different image information” between Y3 and Y4 in FIG. 35 represents the necessary deconvergence fusion image information between Y3 and Y4 in FIG. 35 (y4 in FIG. 35).

図34は、
そのまま重ね融合させた前記図35のY3、Y4に、図35の「Y3の402a」、などの補間部分が、発生し無い様に、隙間を無くす様に、各々左右に詰めた工夫をして、重ね融合させた複合図形である図34のY1、Y2である。
図34のY1、Y2間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図34のy1)ことにより図35の「Y3の402a」、などの補間部分を、必要としない図34のY1、Y2間の両離輻輳融合画像情報(図34のyy2)を 表している。
FIG.
35. Y3 and Y4 in FIG. 35, which have been merged as they are, have been devised so that the interpolated portion such as “Y3 402a” in FIG. 34 are Y1 and Y2 in FIG.
Interpolation such as “Y3 402a” in FIG. 35 is obtained by merging image information (y1 in FIG. 34) with a difference in image information comparison between “similar / different image information” between Y1 and Y2 in FIG. 34, the deconvergence fusion image information (yy2 in FIG. 34) between Y1 and Y2 in FIG.

図37は、
図9の左右2つの山型図形(図9のK、L)である
『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』に、
『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』である
図30のT、Uの両離輻輳融合画像情報を そのまま重ね融合させることにより、隠れる部分を持った複合図形である図37のY7、Y8である。
図37のY7、Y8間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図37のy7)ことにより隠れた部分を持つ図37の重層部分が、発生する図37のY7、Y8間の両離輻輳融合画像情報(図37のy8)を 表している。
FIG.
In the left and right two mountain-shaped figures (K and L in FIG. 9) of FIG.
“Two sets of fused image information and left and right“ both deconvergence fused image information by both sets of fused image information ”” in FIG. 37 are Y7 and Y8 in FIG.
The overlapped portion of FIG. 37 having a hidden portion is generated by the image information comparison between the “homogeneous image information” between Y7 and Y8 of FIG. 37 shows both deconvergence fusion image information (y8 in FIG. 37) between Y7 and Y8 in FIG.

図36は、
前記図37のY7、Y8の様な、隠れる部分が、発生する重層部分が、発生し無い様に、重層部分を左右にずらす様に、工夫して、重ね融合させた複合図形である図36のY5、Y6である。
図36のY5、Y6間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図36のy5)ことにより図37の隠れ部分を生み出す重層部分が、発生しない図36のY5、Y6間の両離輻輳融合画像情報(図36のyy6)を 表している。》
各融合画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同各備えさせられること、
FIG.
FIG. 36 is a composite figure in which the hidden portions, such as Y7 and Y8 in FIG. 37, are superimposed and fused so that the overlapping portions are shifted left and right so that the generated overlapping portions do not occur. Y5 and Y6.
FIG. 36 is a diagram in which there is no multi-layered portion that generates a hidden portion in FIG. 37 by having a difference in image information comparison between “homogeneous image information” between Y5 and Y6 in FIG. 36 shows both deconvergence fusion image information (yy6 in FIG. 36) between Y5 and Y6. >>
Including any one or more of each fusion image information signal and the same image information light, or being provided with each

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、
「両形融合画像情報」(図2のb)による「空間深度画像情報」の立体画像情報(図2のb)、
「両組融合画像情報」(図4のf)による「空間突出度画像情報」の立体画像情報(図4のf)、「両形組融合画像情報」(図6のh)による「空間歪性度画像情報」の立体画像情報(図6のh)、前記第1記載の「両形融合画像情報による両離輻輳融合画像情報」(図1のbb)
による目前領域における部分「空間深度画像情報」の立体画像情報(図1のbb)、
前記第2記載の「両組融合画像情報による両離輻輳融合画像情報」(図3のff)
による目前領域における部分「空間突出度画像情報」の立体画像情報(図3のff)、
前記第3記載の「両形組融合画像情報による両離輻輳融合画像情報」(図5のhh)
による目前領域における部分「空間歪性度画像情報」の立体画像情報(図5のhh)、
前記第4記載の『両形融合画像情報と上下「両形融合画像情報による両離輻輳融合画像情報」』(図7のjj)
による目前領域における左右全体「空間深度画像情報」の立体画像情報(図7のjj)、
前記第5記載の『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』(図9のll)
による目前領域における左右全体「空間突出度画像情報」の立体画像情報(図9のll)
前記第6記載の『両形組融合画像情報と上下「両形組融合画像情報による両離輻輳融合画像情報」』(図11のnn)
による目前領域における左右全体「空間歪性度画像情報」の立体画像情報(図11のnn)、
前記第7記載の『両形融合画像情報と左右「両形融合画像情報による両離輻輳融合画像情報」』(図28のss)、
による目前領域における上下全体「空間深度画像情報」の立体画像情報(図28のss)、
前記第8記載の『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』(図30のuu)、
による目前領域における上下全体「空間突出度画像情報」の立体画像情報(図30のuu)
および、
前記第9記載の『両形組融合画像情報と左右「両形組融合画像情報による両離輻輳融合画像情報」』(図32のww)、
による目前領域における上下全体「空間歪性度画像情報」の立体画像情報(図32のww)の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、構成されている目前領域における様々な立体画像情報を、得る事ができる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, by doing any of the above actions,
3D image information (b in FIG. 2) of “spatial depth image information” based on “bimodal fusion image information” (b in FIG. 2),
“Spatial distortion image information” stereoscopic image information (f of FIG. 4) based on “Both-set fusion image information” (f of FIG. 4), “Spatial distortion” 3D image information of “sexuality image information” (h in FIG. 6), “both deconvergence fusion image information based on bilateral fusion image information” (bb in FIG. 1)
3D image information (bb in FIG. 1) of the portion “space depth image information” in the immediate area by
The “both deconvergence fusion image information by both sets fusion image information” described in the second section (ff in FIG. 3)
3D image information (ff in FIG. 3) of the portion “spatial protrusion degree image information” in the immediate area by
The “both deconvergence fusion image information based on the bimorphic fusion image information” described in the third section (hh in FIG. 5)
3D image information (hh in FIG. 5) of the portion “spatial distortion image information” in the immediate area by
“Dual fusion image information and upper and lower“ both deconvergence fusion image information by bimodal fusion image information ”” (jj in FIG. 7)
3D image information (jj in FIG. 7) of the entire left and right “spatial depth image information” in the immediate area by
“Both-set fusion image information and upper and lower“ both deconvergence fusion image information based on both-set fusion image information ”” (ll in FIG. 9)
3D image information of the entire left and right “spatial protrusion degree image information” (ll in FIG. 9)
“Dual form fusion image information and upper and lower“ both devergence fusion image information by both form combination fusion image information ”” (6 in FIG. 11)
3D image information (nn in FIG. 11) of the entire left and right “spatial distortion image information” in the immediate area by
“Dual form fusion image information and left and right“ both deconvergence fusion image information by double form fusion image information ”” (ss in FIG. 28),
3D image information (ss in FIG. 28) of the entire top and bottom “spatial depth image information” in the current area by
“Both-set fusion image information and left and right“ both deconvergence fusion image information by both-set fusion image information ”” (uu in FIG. 30),
3D image information of “upward and downward image information of spatial protrusion” in the current area by uu (u in FIG. 30)
and,
“Dual form fusion image information and left and right“ both devergence fusion image information by both form combination fusion image information ”” (ww in FIG. 32),
Among the three-dimensional image information (ww in FIG. 32) of the entire top and bottom “spatial distortion image information” in the current area by 1 or more, one or more various combinations, or one or more various superpositions, Various kinds of stereoscopic image information in the configured current area can be obtained.

また、図34のY1、Y2は、
図9の左右2つの山型図形(図9のK、L)を 図13の52 の左右2つの谷型図形で実現した『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』に、
『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』である
図30のT、Uの両離輻輳融合画像情報を
図35の「Y3の402a」、などの補間部分が、発生し無い様に、隙間を無くす様に、各々左右に詰めた工夫をして、重ね融合させた複合図形である図34のY1、Y2である。
図34のY1、Y2から生み出されるyy2は、
目前領域における上下左右全体「空間深度画像情報」の立体画像情報として得られ、
なお且つ、図35のy4の様な補間(図35の「Y4の402」に「Y3の402a」を複写し、埋め込んで、融合させ「y3の401」を経て、「y4の400」に至る)を必要としない目前領域における上下左右全体「空間深度画像情報」の立体画像情報も得ることができる為、平面画像情報の立体化加工技術が、極めて、簡単で、原平面画像情報が、持つ質的画像情報価値を損なうことのなく忠実に、目前領域における立体画像情報とする事が、可能となる。
Also, Y1 and Y2 in FIG.
The two left and right mountain-shaped figures (K and L in FIG. 9) are realized by the two left and right valley-shaped figures in FIG. Fusion image information ””
The both-divergence fusion image information of T and U of FIG. 30 which is “both-group fusion image information and right and left“ both-defusion convergence image information by both-set fusion image information ””.
34, Y1 in FIG. 34, which is a composite figure obtained by superimposing and merging each left and right so as to eliminate the gap so that the interpolated portion such as “Y3 402a” in FIG. 35 does not occur. Y2.
Yy2 generated from Y1 and Y2 in FIG.
It is obtained as stereoscopic image information of the entire “upper and lower left and right” spatial depth image information in the immediate area,
In addition, interpolation such as y4 in FIG. 35 ("Y3 402a" is copied and embedded in "Y4 402" in FIG. 35, and is merged through "y3 401" to reach "y4 400". ) 3D image information of the entire “upper and lower left and right“ spatial depth image information ”can be obtained in the current area that does not require), so that the three-dimensional processing technology of the plane image information is extremely simple and the original plane image information has It is possible to faithfully make the stereoscopic image information in the immediate area without losing the value of qualitative image information.

また、図36のY5、Y6は、
図9の左右2つの山型図形(図9のK、L)である
『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』に、
『両組融合画像情報と左右「両組融合画像情報による両離輻輳融合画像情報」』である
図30のT、Uの両離輻輳融合画像情報を
図37のY7、Y8の様な、隠れる部分が、発生する重層部分が、発生し無い様に、重層部分を左右にずらす様に、工夫して、重ね融合させた複合図形である図36のY5、Y6である。図36のY5、Y6から生み出されるyy6は、
目前領域における上下左右全体「空間突出度画像情報」の立体画像情報として得られ、
なお且つ、図37のy8に見られる隠れる部分が、発生し無い目前領域における上下左右全体「空間突出度画像情報」の立体画像情報も得ることができる為、平面画像情報の立体化加工技術が、極めて、簡単で、原平面画像情報が、持つ質的画像情報価値を損なうことのなく忠実に、目前領域における立体画像情報とする事が、可能となる。
Also, Y5 and Y6 in FIG.
In the left and right two mountain-shaped figures (K and L in FIG. 9) of FIG.
The both-divergence fusion image information of T and U of FIG. 30 which is “both-group fusion image information and right and left“ both-defusion convergence image information by both-set fusion image information ””.
FIG. 36 is a composite figure in which the hidden portions, such as Y7 and Y8 in FIG. 37, are combined and overlapped so that the overlapping portions are shifted left and right so that the generated overlapping portions do not occur. Y5 and Y6. Yy6 generated from Y5 and Y6 in FIG.
Obtained as 3D image information of the entire "upper and lower left and right" spatial projection image information in the immediate area,
In addition, since the hidden portion seen in y8 in FIG. 37 can also obtain the three-dimensional image information of the entire “upper and lower left and right“ spatial protrusion degree image information ”in the current area, the three-dimensional processing technique of the planar image information Therefore, it is extremely simple, and the original plane image information can be faithfully converted into the three-dimensional image information in the immediate area without impairing the qualitative image information value.

また、目前領域における上下左右全体「空間歪性度画像情報」の立体画像情報取得でも、同様の効果を生み出すことは、以上述べた事の応用で、可能である。 In addition, it is possible to produce the same effect by acquiring the stereoscopic image information of the “space distortion degree image information” in the entire upper, lower, left, and right in the immediate area by applying the above-described application.

以上の効果の内、1以上と1以上の様々な組み合わせによる効果を 本発明の効果とする 前記第1〜9のいずれかに記載の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the effect of the present invention is an effect of one or more and one or more various combinations. The three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to ninth items, or A stereoscopic image information processing apparatus.

11、本発明の効果を 挙げると前記第11の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図25において)
時間軸上の平面画像情報(図25の121)内部に存在する
「音情報」(図25の122)・「文字情報」(図25の123)・
「人情報」(図25の124)・「生物情報」(図25の125)・
「物情報」(図25の126)・「カメラ類撮影状況情報」(図25の127)・
「前記情報を除いた平面画像情報」(図25の128)・
「人が持つ 私的・地域的・公知的 概念認識情報」
(以下、「人認識情報」と 呼称する)(図25の129)・
「人が推定できる 私的・地域的・公知的 連想推定情報」
(以下、「人推定情報」と 呼称する)(図25の212)・
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」
(以下、「制御情報」と 呼称する)(図25の213)、
および、
「コンピュータプログラム言語情報の処理情報」
(以下、「言語情報」と 呼称する)(図25の214)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図25の130)
11. When the effects of the present invention are given, the eleventh stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIG. 25)
“Sound information” (122 in FIG. 25), “Character information” (123 in FIG. 25) existing in the plane image information (121 in FIG. 25) on the time axis,
“Personal information” (124 in FIG. 25) • “Biological information” (125 in FIG. 25)
“Object information” (126 in FIG. 25) • “Camera shooting status information” (127 in FIG. 25)
“Plane image information excluding the information” (128 in FIG. 25).
"Personal, regional, and publicly known concept recognition information that people have"
(Hereafter referred to as “person recognition information”) (129 in FIG. 25)
"Private, regional, and publicly known association estimation information that humans can estimate"
(Hereinafter referred to as “person estimation information”) (212 in FIG. 25).
"Processing information for any of the control units, control devices, control devices, and control systems"
(Hereinafter referred to as “control information”) (213 in FIG. 25),
and,
"Processing information of computer program language information"
(Hereinafter referred to as “language information”) (214 in FIG. 25)
"Information consisting of one or more, one or more various combinations, or one or more various overlays" (130 in FIG. 25)


「時間同軸上の音情報、同軸上の近似類の平均値音情報、または、同軸上の同偏差値音情報」(図25の131)
「同軸上の文字情報、同軸上の近似類の平均値文字情報、または、同軸上の同偏差値文字情報」(図25の132)
「同軸上の人情報、同軸上の近似類の平均値人情報、または、同軸上の同偏差値人情報」(図25の133)
「同軸上の生物情報、同軸上の近似類の平均値生物情報、または、同軸上の同偏差値生物情報」(図25の134)
「同軸上の物情報、同軸上の近似類の平均値物情報、または、同軸上の同偏差値物情報」(図25の135)
「同軸上のカメラ類撮影状況情報、同軸上の近似類の平均値カメラ類撮影状況情報、または、同軸上の同偏差値カメラ類撮影状況情報」(図25の136)
「同軸上の前記情報を除いた平面画像情報、同軸上の近似類の平均値前記情報を除いた平面画像情報、または、同軸上の同偏差値前記情報を除いた平面画像情報」(図25の137)
『同軸上の「人認識情報」、同軸上の近似値内の平均値「人認識情報」、または、同軸上の同偏差値「人認識情報」』(図25の215)・
『同軸上の「人推定情報」、同軸上の近似値内の平均値「人推定情報」、または、同軸上の同偏差値「人推定情報」』(図25の216)・
『同軸上の「制御情報」、同軸上の近似値内の平均値「制御情報」、または、同軸上の同偏差値「制御情報」』(図25の217)、および、
『同軸上の「言語情報」、同軸上の近似値内の平均値「言語情報」、または、同軸上の同偏差値「言語情報」』(図25の218)
の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図25の139)
And “sound information on the same time coaxial, average value sound information of approximates on the same axis, or the same deviation value sound information on the same axis” (131 in FIG. 25)
"Coaxial character information, coaxial average value character information, or coaxial same deviation value character information" (132 in FIG. 25)
“Personal information on the same axis, average person information on the same type on the same axis, or information on the same deviation person on the same axis” (133 in FIG. 25)
"Biological information on the same axis, average value biological information of similar classes on the same axis, or the same deviation value biological information on the same axis" (134 in FIG. 25)
“Object information on the same axis, average value object information on the same type on the same axis, or information on the same deviation value on the same axis” (135 in FIG. 25)
“Coaxial camera shooting status information, coaxial approximate value camera shooting status information, or coaxial deviation value camera shooting status information” (136 in FIG. 25)
“Plane image information excluding the information on the same axis, average image of the approximation on the same axis, plane image information excluding the information, or plane image information excluding the same deviation value on the same axis” (FIG. 25) 137)
“Coaxial“ person recognition information ”, coaxial average value“ person recognition information ”, or coaxial deviation value“ person recognition information ”(215 in FIG. 25).
“Coaxial“ person estimation information ”, coaxial average value“ person estimation information ”, or coaxial deviation value“ person estimation information ”(216 in FIG. 25).
“Coaxial“ control information ”, an average value“ control information ”within the approximate value on the coaxial, or the same deviation value“ control information ”on the coaxial” (217 in FIG. 25), and
“Language information” on the same axis, average value “Language information” within the approximate value on the same axis, or the same deviation value “Language information” on the same axis ”(218 in FIG. 25)
Of which
“Information consisting of one or more, one or more various combinations, or one or more various overlays” (139 in FIG. 25)

との情報比較で、
「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)を持っている、もしくは、持たされている、
Compare information with
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlarge” (FIG. 25 of 145) “reduction” (146 of FIG. 25) “expansion” (147 of FIG. 25) “compression” (148 of FIG. 25) “equivalent” (149 of FIG. 25) “match” (150 of FIG. 25) “ “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” (155 in FIG. 25) “Intersection” (FIG. 25 156) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) “Separation” (161 in FIG. 25) “ “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Break” 165 in FIG. 25) “Now” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (220 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (FIG. 25 227) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) “East” (232 in FIG. 25), And “unrelated” (168 in FIG. 25),
"Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more" (169 in FIG. 25), or "Process for detecting the same comparison information simultaneously. Information "(170 in FIG. 25), or

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
以上により、時間軸上の平面画像情報(図25の121)内部に存在する各情報(図25の122〜130・212〜214)を 当該平面画像情報(図25の121)外に存在する時間軸上の対応した各情報(図25の131〜139・215〜218)と照合比較できる。
この事により、様々に照合された差異(図25の140〜168・219〜232)を検出(図25の169・170)でき、この照合検出された様々な差異(図25の140〜168・219〜232)から、比較原である時間軸上の当該平面画像情報(図25の121)内の 時間軸上の各様々な場面の状況情報を 検知し(図25の182)、検出し(図25の182)、限定し(図25の182)、特定し(図25の182)、確定し(図25の182)、認識し(図25の182)、および、推定できる(図25の182)ことの内、何れか1以上とその様々な組み合わせ効果が、可能となる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
As described above, each piece of information (122 to 130 and 212 to 214 in FIG. 25) existing in the plane image information (121 in FIG. 25) on the time axis is converted into the time existing outside the plane image information (121 in FIG. 25). The corresponding information on the axis (131 to 139 and 215 to 218 in FIG. 25) can be collated and compared.
By this, it is possible to detect various differences (140 to 168 and 219 to 232 in FIG. 25) (169 and 170 in FIG. 25), and to detect the various differences (140 to 168 in FIG. 25). 219 to 232), the situation information of the various scenes on the time axis in the plane image information (121 in FIG. 25) on the time axis as the comparison source is detected (182 in FIG. 25) and detected ( 182 of FIG. 25), limited (182 of FIG. 25), identified (182 of FIG. 25), confirmed (182 of FIG. 25), recognized (182 of FIG. 25), and can be estimated (of FIG. 25) 182) Any one or more of these and various combinations of the effects are possible.

以上の効果の内、1以上と1以上の様々な組み合わせによる効果を 本発明の効果とする 前記第1〜10のいずれかに記載の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the effect of the present invention is an effect of one or more and one or more various combinations. The three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to tenth items, or A stereoscopic image information processing apparatus.

12、本発明の効果を 挙げると前記第12の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図39において)
前記第11記載の発明の効果と同じ発明の効果を 当該項目の発明の効果とする
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報」(図39の188)からなる立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。
12. When the effects of the present invention are mentioned, the twelfth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIG. 39)
“Bilateral fusion image information” (171 in FIG. 39) having the same effect as that of the eleventh invention as the effect of the invention of the item (171 in FIG. 39).
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
3D image information holding object / image information 3D processing device or 3D image comprising “one or more, one or more various combinations, or one or more various superimposed image information” (188 in FIG. 39) Information processing apparatus.

13、本発明の効果を 挙げると前記第13の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図25・図40において)
「検知される時間軸上の平面画像情報内部の各場面状況情報」(図40の182)から、もしくは、「同時進行」(図40の233)で、
「両形融合画像情報の処理実行」(図40の171)・
「両組融合画像情報の処理実行」(図40の172)・
「両形組融合画像情報の処理実行」(図40の173)・
「両離輻輳融合画像情報の処理実行」(図40の174)・
「画像情報の処理実行」(図40の175)・
「視覚情報の処理実行」(図40の234)・
「聴覚情報の処理実行」(図40の176)・
「嗅覚情報の処理実行」(図40の177)・
「触覚情報の処理実行」(図40の178)・
「味覚情報の処理実行」(図40の179)・
「カメラ類撮影状況情報の処理実行」(図40の235)・
「人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」(図40の236)・
「人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」(図40の237)・
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理実行」
(図40の238)、
および、
「コンピュータプログラム言語情報の処理実行」(図40の239)の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報の処理実行」(図40の180)
「前記処理情報の処理実行を行っている、もしくは、行わされている」(図40の181)、
13. When the effects of the present invention are mentioned, the thirteenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 25 and 40)
From “each scene situation information inside planar image information on the time axis to be detected” (182 in FIG. 40) or “simultaneous progress” (233 in FIG. 40),
“Processing of bimodal fusion image information” (171 in FIG. 40).
“Process execution of both sets of fused image information” (172 in FIG. 40).
“Process execution of bimodal combination image information” (173 in FIG. 40).
“Execution of processing of both deconvergence fusion image information” (174 in FIG. 40).
“Execute image information processing” (175 in FIG. 40).
“Execute visual information processing” (234 in FIG. 40).
“Perform auditory information processing” (176 in FIG. 40).
“Process execution of olfactory information” (177 in FIG. 40).
“Tactile information processing execution” (178 in FIG. 40)
“Taste information processing execution” (179 in FIG. 40)
“Processing of camera shooting status information” (235 in FIG. 40).
“Personal, regional, and publicly known concept recognition information processing execution that can be recognized by humans” (236 in FIG. 40)
“Perform processing of personal, regional, and publicly known association estimation information that humans can estimate” (237 in FIG. 40).
"Processing execution of processing information for any of control units, control devices, control devices, and control systems"
(238 in FIG. 40),
and,
Of “Processing execution of computer program language information” (239 in FIG. 40),
“Processing execution of processing information consisting of any one or more, one or more various combinations, or one or more various superpositions” (180 in FIG. 40)
“The processing information is being processed or is being performed” (181 in FIG. 40),

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、
図25の121の「平面画像情報」内部から検知し、検出し、限定し、特定し、確定し、認識し、および、推定された「平面画像情報内部(図25の121)の 時間軸上の各様々な場面状況情報」(図25の182・図40の182)から、「本場面状況に対応した最適の処理情報の選択と決定」(図40の185)が、時間軸上で、逐次選択・決定されて、様々な情報の処理の実行(図40の171〜181・233〜239)が、行われることにより、「最適の時期に、最適の時間だけ、最適の情報処理部、もしくは、同情報処理実行作動部に、最適の情報処理部運用プログラム、最適の情報処理部修正プログラムを伴って、実行処理」(図40の187)される、もしくは、1以上の再実行処理を 行うことが可能となる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
By
Detected, detected, limited, specified, fixed, recognized and recognized from the inside of the “planar image information” 121 in FIG. 25, and the estimated “planar image information inside (121 in FIG. 25) on the time axis From “various scene situation information” (182 in FIG. 25, 182 in FIG. 40), “selection and determination of optimum processing information corresponding to the scene situation” (185 in FIG. 40) is By sequentially selecting and deciding and executing processing of various information (171 to 181 and 233 to 239 in FIG. 40), “the optimum information processing unit at the optimum time and only for the optimum time, Alternatively, the information processing execution operation unit is accompanied with an optimal information processing unit operation program and an optimal information processing unit correction program, and is executed ”(187 in FIG. 40), or one or more re-execution processes are performed. Can be done.

また、そのことにより、目前迄飛び出す領域における平面画像情報の立体的再現と平面画像情報内部に存在する人の5感覚情報の各場面状況に応じた最適な場面状況情報の立体的再現が、可能となり、そのことは、観察視聴者に、5感覚を、刺激される圧倒的臨場感と圧倒的に快適な空間情報を生み出すことになる。(図40の187)   In addition, it enables the three-dimensional reproduction of the planar image information in the area that pops out to the immediate extent and the three-dimensional reproduction of the optimum scene situation information according to each scene situation of the five sense information of the person existing inside the planar image information. As a result, the observation viewer generates five senses, an overwhelming presence that is stimulated, and overwhelmingly comfortable spatial information. (187 in FIG. 40)

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜12のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to twelfth aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

14、本発明の効果を 挙げると前記第14の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図41において)
「A5感空間」(図41の300)「B虚空領域」(図41の302)「C実空領域」(図41の303)「D領間処理部」(図41の304)、および、「通信手段A」(図41の340)は、前記第14記載の様な条件下において、(図44において)
前記「A5感空間」(図41の300)内部に存在する
「音情報」(図44の122)・
「文字情報」(図44の123)・
「人情報」(図44の124)・
「生物情報」(図44の125)・
「物情報」(図44の126)・
「カメラ類撮影状況情報」(図44の127)・
「前記情報を除いた平面画像情報」(図44の128)・
「視覚計測センサー類で観測される情報」(図44の244)・
「聴覚計測センサー類で観測される情報」(図44の245)・
「嗅覚計測センサー類で観測される情報」(図44の246)・
「味覚計測センサー類で観測される情報」(図44の247)・
「触覚計測センサー類で観測される情報」(図44の248)・
「人が持つ 私的・地域的・公知的 概念認識情報」
(以下、「人認識情報」と 呼称する)(図44の129)・
「人が推定できる 私的・地域的・公知的 連想推定情報」
(以下、「人推定情報」と 呼称する)(図44の212)・
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」
(以下、「制御情報」と 呼称する)(図44の213)、
および、
「コンピュータプログラム言語情報の処理情報」
(以下、「言語情報」と 呼称する)(図44の214)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図44の130)
14. When the effects of the present invention are given, the fourteenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIG. 41)
“A5 sense space” (300 in FIG. 41) “B imaginary space” (302 in FIG. 41) “C real sky region” (303 in FIG. 41) “D inter-area processing unit” (304 in FIG. 41), and "Communication means A" (340 in FIG. 41) is the same as that in the fourteenth aspect (in FIG. 44).
“Sound information” (122 in FIG. 44) existing in the “A5 sense space” (300 in FIG. 41).
“Text information” (123 in FIG. 44)
“Personal information” (124 in FIG. 44)
“Biological information” (125 in FIG. 44)
"Material information" (126 in FIG. 44)
“Camera shooting status information” (127 in FIG. 44)
"Plane image information excluding the information" (128 in FIG. 44).
"Information observed by visual measurement sensors" (244 in Fig. 44)
“Information observed by auditory sensors” (245 in FIG. 44)
“Information observed by olfactory sensor” (246 in FIG. 44)
“Information observed by taste sensor” (247 in FIG. 44)
“Information observed by tactile sensors” (248 in FIG. 44).
"Personal, regional, and publicly known concept recognition information that people have"
(Hereafter referred to as “person recognition information”) (129 in FIG. 44).
"Private, regional, and publicly known association estimation information that humans can estimate"
(Hereinafter referred to as “person estimation information”) (212 in FIG. 44).
"Processing information for any of the control units, control devices, control devices, and control systems"
(Hereinafter referred to as “control information”) (213 in FIG. 44),
and,
"Processing information of computer program language information"
(Hereinafter referred to as “language information”) (214 in FIG. 44)
“Information consisting of one or more, one or more various combinations, or one or more various superpositions” (130 in FIG. 44).


「時間同軸上の音情報、同軸上の近似類の平均値音情報、または、同軸上の同偏差値音情報」(図44の131)
「同軸上の文字情報、同軸上の近似類の平均値文字情報、または、同軸上の同偏差値文字情報」(図44の132)
「同軸上の人情報、同軸上の近似類の平均値人情報、または、同軸上の同偏差値人情報」(図44の133)
「同軸上の生物情報、同軸上の近似類の平均値生物情報、または、同軸上の同偏差値生物情報」(図44の134)
「同軸上の物情報、同軸上の近似類の平均値物情報、または、同軸上の同偏差値物情報」(図44の135)
「同軸上のカメラ類撮影状況情報、同軸上の近似類の平均値カメラ類撮影状況情報、または、同軸上の同偏差値カメラ類撮影状況情報」(図44の136)
「同軸上の前記情報を除いた平面画像情報、同軸上の近似類の平均値前記情報を除いた平面画像情報、または、同軸上の同偏差値前記情報を除いた 平面画像情報」(図44の137)
「同軸上の視覚計測センサー類で観測される情報、同軸上の近似値内の平均値視覚計測センサー類で観測される情報、または、同軸上の同偏差値視覚計測センサー類で観測される情報」(図44の300)・
「同軸上の聴覚計測センサー類で観測される情報、同軸上の近似値内の平均値聴覚計測センサー類で観測される情報、または、同軸上の同偏差値聴覚計測センサー類で観測される情報」(図44の300)・
「同軸上の嗅覚計測センサー類で観測される情報、同軸上の近似値内の平均値嗅覚計測センサー類で観測される情報、または、同軸上の同偏差値嗅覚計測センサー類で観測される情報」(図44の300)・
「同軸上の味覚計測センサー類で観測される情報、同軸上の近似値内の平均値味覚計測センサー類で観測される情報、または、同軸上の同偏差値味覚計測センサー類で観測される情報」(図44の300)・
「同軸上の触覚計測センサー類で観測される情報、同軸上の近似値内の平均値触覚計測センサー類で観測される情報、または、同軸上の同偏差値触覚計測センサー類で観測される情報」(図44の300)・
『同軸上の「人認識情報」、同軸上の近似値内の平均値「人認識情報」、または、同軸上の同偏差値「人認識情報」』(図44の215)・
『同軸上の「人推定情報」、同軸上の近似値内の平均値「人推定情報」、または、同軸上の同偏差値「人推定情報」』(図44の216)・
『同軸上の「制御情報」、同軸上の近似値内の平均値「制御情報」、または、同軸上の同偏差値「制御情報」』(図44の217)、および、
『同軸上の「言語情報」、同軸上の近似値内の平均値「言語情報」、または、同軸上の同偏差値「言語情報」』(図44の218)
の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図44の139)
And “sound information on the same time coaxial, average value sound information of similar types on the same axis, or same deviation value sound information on the same axis” (131 in FIG. 44)
“Coaxial character information, coaxial average value character information, or coaxial deviation character information” (132 in FIG. 44)
“Personal information on the same axis, average value person information on the same type on the same axis, or the same deviation value person information on the same axis” (133 in FIG. 44)
"Biological information on the same axis, average value biological information on the same type on the same axis, or the same deviation value biological information on the same axis" (134 in FIG. 44)
"Object information on the same axis, average value object information on the same type on the same axis, or information on the same deviation value on the same axis" (135 in FIG. 44)
"Camera shooting status information on the same axis, average camera shooting status information on the same type on the same axis, or same deviation value camera shooting status information on the same axis" (136 in FIG. 44)
“Plane image information excluding the information on the same axis, average value of the approximation on the same axis, plane image information excluding the information, or plane image information excluding the same deviation value on the same axis” (FIG. 44) 137)
"Information observed by visual measurement sensors on the same axis, information observed by average visual measurement sensors within the approximate value on the same axis, or information observed by visual measurement sensors of the same deviation value on the same axis" (300 in FIG. 44)
“Information observed by coaxial auditory sensors, information observed by average auditory sensors within the approximate value on the same axis, or information observed by same-value auditory sensors on the same axis. (300 in FIG. 44)
"Information observed by olfactory sensors on the same axis, information observed by average olfactory sensors within the approximate value on the same axis, or information observed by the same olfactory sensors on the same value on the same axis" (300 in FIG. 44)
"Information observed by taste sensor on the same axis, information observed by average taste sensor within the approximate value on the same axis, or information observed by the taste sensor of the same deviation value on the same axis" (300 in FIG. 44)
"Information observed by tactile sensors on the same axis, information observed by average tactile sensors within the approximate value on the same axis, or information observed by the tactile sensors of the same deviation value on the same axis" (300 in FIG. 44)
“Coaxial“ person recognition information ”, coaxial average value“ person recognition information ”, or coaxial deviation value“ human recognition information ”(215 in FIG. 44).
“Coaxial“ person estimation information ”, coaxial average value“ person estimation information ”, or coaxial deviation value“ person estimation information ”(216 in FIG. 44).
"Coaxial" control information ", average value" control information "within the approximate value on the coaxial, or the same deviation value" control information "on the coaxial (217 in FIG. 44), and
“Language Information” on Coaxial, Average Value “Language Information” in Approximate Value on Coaxial, or Same Deviation Value “Language Information” on Coaxial ”(218 in FIG. 44)
Of which
"Information consisting of one or more, one or more various combinations, or one or more various overlays" (139 in FIG. 44)

との情報比較で、
「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)を持っている、もしくは、持たされている、
Compare information with
“Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Anomaly” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “Enlarge” (FIG. 44 of 145) “reduction” (146 of FIG. 44) “expansion” (147 of FIG. 44) “compression” (148 of FIG. 44) “equivalent” (149 of FIG. 44) “match” (150 of FIG. 44) “ "Approximation" (151 in FIG. 44) "Similarity" (152 in FIG. 44) "Same" (153 in FIG. 44) "Related" (154 in FIG. 44) "Difference" (155 in FIG. 44) "Intersection" (FIG. 44 156) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) “Separation” (161 in FIG. 44) “ “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “Break” 44 in FIG. 44) “Now” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” (FIG. 44 227) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) “East” (232 in FIG. 44), And “unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more of the same, or various superpositions of one or more of the same" (169 in FIG. 44) or "Processing for detecting the same comparison information simultaneously." Information "(170 in FIG. 44), or

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
以上により、時間軸上のA5感空間情報(図44の300)内部に存在する各情報(図44の122〜130・212〜214・244〜248)を 当該A5感空間情報(図44の300)内外に存在する時間軸上の対応した各情報(図44の131〜139・215〜218・249〜253)と照合比較できる。
この事により、様々に照合された差異(図44の140〜168・219〜232)を検出(図44の169・170)でき、この照合検出された様々な差異(図44の140〜168・219〜232)から、比較原である時間軸上の当該A5感空間情報(図44の300)内の 時間軸上の各様々な場面の状況情報を 検知し(図44の183)、検出し(図44の183)、限定し(図44の183)、特定し(図44の183)、確定し(図44の183)、認識し(図44の183)、および、推定できる(図44の183)ことの内、何れか1以上とその様々な組み合わせ効果が、可能となる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
As described above, information (122 to 130, 212 to 214, and 244 to 248 in FIG. 44) existing in the A5 feeling space information on the time axis (300 in FIG. 44) is converted into the A5 feeling space information (300 in FIG. 44). ) The corresponding information on the time axis existing inside and outside (131 to 139, 215 to 218, and 249 to 253 in FIG. 44) can be collated and compared.
By this, it is possible to detect variously collated differences (140 to 168 and 219 to 232 in FIG. 44) (169 and 170 in FIG. 44), and to detect the various differences (140 to 168 in FIG. 44). 219 to 232), the situation information of various scenes on the time axis in the A5 sense space information (300 in FIG. 44) on the time axis as a comparison source is detected (183 in FIG. 44) and detected. (183 in FIG. 44), limited (183 in FIG. 44), identified (183 in FIG. 44), confirmed (183 in FIG. 44), recognized (183 in FIG. 44), and can be estimated (FIG. 44). 183), any one or more of them and various combination effects are possible.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜13のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to thirteenth aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

15、本発明の効果を 挙げると前記第15の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図39において)
前記第14記載の発明の効果と同じ発明の効果を 当該項目の発明の効果とする
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報」(図39の188)からなる立体画像情報保持物・画像情報立体化処理装置・立体画像情報処理装置である。
15. When the effects of the present invention are mentioned, the fifteenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIG. 39)
“Bilateral fusion image information” (171 in FIG. 39) having the same effect as the effect of the invention of the above item 14 as the effect of the invention of the item.
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
Stereo image information holding object / image information stereoscopic processing apparatus / stereo image information processing composed of “one or more, one or more various combinations, or one or more various superimposed image information” (188 in FIG. 39) Device.

16、本発明の効果を 挙げると前記第16の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図44・図46において)
「A動画群」は、前記第16記載の様な、条件下において、
「検知される時間軸上のA5感空間情報内部の各場面状況情報」(図46の183)から、もしくは、「同時進行」(図46の233)で、
「両形融合画像情報の処理実行」(図46の171)・
「両組融合画像情報の処理実行」(図46の172)・
「両形組融合画像情報の処理実行」(図46の173)・
「両離輻輳融合画像情報の処理実行」(図46の174)・
「画像情報の処理実行」(図46の175)・
「視覚情報の処理実行」(図46の234)・
「聴覚情報の処理実行」(図46の176)・
「嗅覚情報の処理実行」(図46の177)・
「触覚情報の処理実行」(図46の178)・
「味覚情報の処理実行」(図46の179)・
「A動画群情報の処理実行」(図46の335)・
「5感覚計測センサー類情報の処理実行」(図46の336)・
「カメラ類撮影状況情報の処理実行」(図46の235)・
「人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」(図46の236)・
「人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」(図46の237)・
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理実行」
(図46の238)、
および、
「コンピュータプログラム言語情報の処理実行」(図46の239)の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報の処理実行」(図46の180)
「前記処理実行の情報を持っている、もしくは、持たされている」(図46の181)、
16. When the effects of the present invention are mentioned, the 16th stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIGS. 44 and 46)
The “A moving image group” is under the conditions as described in the sixteenth above.
From "each scene situation information inside A5 sensation space information on the detected time axis" (183 in FIG. 46) or "simultaneous progress" (233 in FIG. 46),
“Execution of bimodal image information processing” (171 in FIG. 46).
“Process execution of both sets of fused image information” (172 in FIG. 46).
“Process execution of both forms combined image information” (173 in FIG. 46).
"Execution of processing of both deconvergence fusion image information" (174 in FIG. 46).
“Image information processing execution” (175 in FIG. 46).
“Visual information processing execution” (234 in FIG. 46)
“Perform auditory information processing” (176 in FIG. 46).
“Process execution of olfactory information” (177 in FIG. 46).
“Tactile information processing” (178 in FIG. 46)
“Taste information processing execution” (179 in FIG. 46)
“A video group information processing execution” (335 in FIG. 46).
“Process execution of sensory sensor information” (336 in FIG. 46)
“Camera shooting status information processing execution” (235 in FIG. 46).
“Personal, regional, and publicly known concept recognition information processing execution that humans can recognize” (236 in FIG. 46).
“Perform processing of personal, regional, and publicly known association estimation information that can be estimated by humans” (237 in FIG. 46).
"Processing execution of processing information for any of control units, control devices, control devices, and control systems"
(238 in FIG. 46),
and,
Of “Processing execution of computer program language information” (239 in FIG. 46),
"Process execution of processing information consisting of any one or more, one or more various combinations, or one or more various superpositions" (180 in FIG. 46)
“I have or have information on the execution of the process” (181 in FIG. 46),

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、
図44の300の「A5感空間情報」内部から検知し、検出し、限定し、特定し、確定し、認識し、および、推定された「A5感空間情報内部(図44の300)の 時間軸上の各様々な場面状況情報」(図44の183・図46の183)から、「当該場面状況に対応した最適の処理情報の選択と決定」(図46の185)が、時間軸上で、逐次選択・決定されて、様々な情報の処理の実行(図46の171〜181・233〜239・335・336)が、行われることにより、「最適の時期に、最適の時間だけ、最適の情報処理部、もしくは、同情報処理実行作動部に、最適の情報処理部運用プログラム、最適の情報処理部修正プログラムを伴って、実行処理」(図46の186)される、もしくは、1以上の再実行処理を 行うことが可能となる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
By
Detected, detected, limited, specified, confirmed, recognized, and estimated from 300 “A5 sensation space information” in FIG. 44 “A5 sensation space information inside (300 in FIG. 44) From “various scene situation information on the axis” (183 in FIG. 44 and 183 in FIG. 46), “selection and determination of optimum processing information corresponding to the scene situation” (185 in FIG. 46) is on the time axis. Thus, the execution of various information processing (171 to 181, 233 to 239, 335, and 336 in FIG. 46) is performed sequentially and determined, so that “at the optimal time, only the optimal time, The optimal information processing unit or the information processing execution operation unit is accompanied by the optimal information processing unit operation program and the optimal information processing unit correction program "(186 in FIG. 46)" or 1 The above re-execution process It becomes a function.

また、そのことにより、目前迄飛び出す領域におけるA5感空間情報内の平面画像情報の立体的再現とA5感空間情報内部に存在する人の5感覚情報の各場面状況に応じた最適な場面状況情報の立体的再現が、可能となり、そのことは、再現空間情報と関わっている観察視聴者に、5感覚を、刺激される圧倒的臨場感と圧倒的に快適で、安全な、空間情報を生み出すことになる。(図46の186)   In addition, the optimal scene situation information corresponding to each scene situation of the three-dimensional reproduction of the planar image information in the A5 sensation space information and the five sense information of the person existing in the A5 sensation space information in the area that jumps out to the near. 3D reproduction is possible, which creates spatial information that is overwhelmingly comfortable and safe with overwhelming sense of realism that stimulates the viewers and viewers involved in the reproduction spatial information. It will be. (186 in FIG. 46)

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜15のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to fifteenth aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

17、本発明の効果を 挙げると前記第17の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図39、35において)、
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ、同様々な重ね合わせ(図39の188)で、構成されている融合画像情報(図39の114、および、図35のy4)内の補間すべき融合画像情報部分(図35のy4の400)に、補間用融合画像情報(図35の「Y4の402」に「Y3の402a」を複写し、埋め込み、「Y3」と「Y4」を融合させ「y3の401」から「y4の400」に至る)に、補間用平面画像情報(図35の「Y3の402a」)が 必要な場合において、当該補間用平面画像情報(図35の「Y3の402a」)が、
「両形融合画像情報」(図39の171)の少なくとも1部以上・
「両組融合画像情報」(図39の172)の少なくとも1部以上・
「両形組融合画像情報」(図39の173)の少なくとも1部以上、および、
「両離輻輳融合画像情報」(図39の174)の少なくとも1部以上の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ(図39の188)画像情報で、少なくともその補間用平面画像情報(図35の「Y3の402a」)の少なくとも1部以上、もしくは、全部が、構成されている各融合画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同各備えさせられること、
17. When the effects of the present invention are given, the seventeenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus (in FIGS. 39 and 35)
“Both shape fusion image information” (171 in FIG. 39)
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
One or more, one or more various combinations, or one or more various superpositions, the same various superpositions (188 in FIG. 39), fused image information (114 in FIG. 39, and 35. Copy and embed “Y3 402a” in “Y4 402” in FIG. 35 in the fused image information portion (y4 400 in FIG. 35) in y4) in FIG. When “Y3” and “Y4” are merged to obtain “Y3 401” to “y4 400”), the interpolation plane image information (“Y3 402a” in FIG. 35) is required. Plane image information (“Y3 402a” in FIG. 35)
At least one copy of “Both shape fusion image information” (171 in FIG. 39).
At least one copy of “Both-set fusion image information” (172 in FIG. 39)
At least one part of “both forms combined image information” (173 in FIG. 39), and
Of at least one part of “both devergence fusion image information” (174 in FIG. 39),
One or more, one or more various combinations, or one or more various overlapping (188 in FIG. 39) image information, and at least the plane image information for interpolation (“Y3 402a” in FIG. 35). One or more, or all of them are provided with any one or more of each composed image information signal and the same image information light,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way

により、
イ、黒色系、もしくは、白色系による補間画像情報に比べ、原画像情報に基づく補間画像
情報(図35の「Y3の402a」)のため、より 自然で、違和感の無い補間画像情報となること
ロ、原画像情報に基づく補間画像情報(図35の「Y3の402a」)のため、選択の幅が、限られる
ため 補間作業が、簡単であること
By
Compared with the interpolated image information of a black or white system, the interpolated image information based on the original image information (“Y3 402a” in FIG. 35) makes the interpolated image information more natural and comfortable. (B) Interpolated image information based on the original image information (“Y3 402a” in FIG. 35), so the selection range is limited.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜16のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to sixteenth aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

18、本発明の効果を 挙げると前記第18の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図27において)
「平面画像情報」(図27の121)の
「両飽和度融合画像情報」(図27の197)・
「両明度融合画像情報」(図27の207)・
「両像収差度融合画像情報」(図27の208)、および、
「両像輪郭線度融合画像情報」(図27の209)の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから構成される各融合画像情報信号、および、同融合画像情報光」(図27の210)のいずれか1つ以上を備えること、もしくは、同各備えさせられること、
18. When the effects of the present invention are mentioned, the 18th stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIG. 27)
“Plane image information” (121 in FIG. 27) “Both saturation fusion image information” (197 in FIG. 27).
“Brightness fusion image information” (207 in FIG. 27)
"Both image aberration degree fusion image information" (208 in FIG. 27), and
Of “Both-image contour-line fusion image information” (209 in FIG. 27),
Any one of “one or more, one or more various combinations, or one or more fusion image information signals composed of various superpositions and the same fusion image information light” (210 in FIG. 27) One or more, or each of the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way

により、
イ、「両飽和度融合画像情報」(図27の197)による融合画像情報立体化効果・
「両明度融合画像情報」(図27の198)による融合画像情報立体化効果・
「両像収差度融合画像情報」(図27の199)による融合画像情報立体化効果、および、
「両像輪郭線度融合画像情報」(図27の200)による融合画像情報立体化効果の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから構成される融合画像情報立体化効果(図27の211)を、前記第1〜10・12、もしくは、15の立体画像情報効果に加え・重ね合わすことが可能なため、より、幅と深みを持った立体画像情報(図27の114a)を 得ることができる
ロ、イ、「両飽和度融合画像情報」(図27の197)による融合画像情報立体化効果・
「両明度融合画像情報」(図27の198)による融合画像情報立体化効果・
「両像収差度融合画像情報」(図27の199)による融合画像情報立体化効果、および、
「両像輪郭線度融合画像情報」(図27の200)による融合画像情報立体化効果の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから構成される融合画像情報立体化効果(図27の211)を、前記第17の補間画像情報(図35の「Y3の402a」)に加え・重ね合わすことができるため、原画像情報に基づく補間画像情報(図35の「Y3の402a」)に比べ、前記優先融合画像情報立体化効果(用語の説明参照・図35の400)により、
目立たしたい補間画像情報(図35の「Y3の402a」)を より目立たせ、
目立たせたくない補間画像情報(図35の「Y3の402a」)を より目立たせなくした状態を、前記優先融合画像情報(=立体画像)(図35の400)で、得ることが可能となり、
By
B. Fusion image information stereoscopic effect by “Both saturation fusion image information” (197 in FIG. 27)
Three-dimensional effect of fusion image information by “Brightness Fusion Image Information” (198 in FIG. 27)
Fusion image information stereoscopic effect by “Both image aberration degree fusion image information” (199 in FIG. 27), and
Among the three-dimensional effects of the fused image information by “Both-image contour-line fused image information” (200 in FIG. 27),
The fused image information three-dimensional effect (211 in FIG. 27) composed of one or more, one or more various combinations, or one or more various superpositions is designated as the first to 10th, 12th, or 15th. In addition to the three-dimensional image information effect of (2), it is possible to obtain more three-dimensional image information (114a in FIG. 27) having a width and depth. (3 of Fig. 27) Effect of three-dimensional fusion image information
Three-dimensional effect of fusion image information by “Brightness Fusion Image Information” (198 in FIG. 27)
Fusion image information stereoscopic effect by “Both image aberration degree fusion image information” (199 in FIG. 27), and
Among the three-dimensional effects of the fused image information by “Both-image contour-line fused image information” (200 in FIG. 27),
Fusion image information three-dimensional effect (211 in FIG. 27) composed of one or more, one or more various combinations, or one or more various superpositions is represented by the seventeenth interpolation image information (FIG. 35). In addition to the interpolated image information based on the original image information (“Y3 402a” in FIG. 35), the priority fusion image information three-dimensional effect (see explanation of terminology) -According to 400 in FIG.
Make the interpolation image information (“Y3 402a” in FIG. 35) more conspicuous,
It is possible to obtain a state in which the interpolation image information (“Y3 402a” in FIG. 35) that is not conspicuous is made inconspicuous with the priority fusion image information (= stereoscopic image) (400 in FIG. 35),

従って、原画像情報(図27の121)と 融合した状態の自然で、同違和感の無い補間融合画像情報(図35の400)となることが可能であること Therefore, it is possible to obtain interpolated fused image information (400 in FIG. 35) that is natural and uncomfortable with the original image information (121 in FIG. 27).

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜17のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to seventeenth aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

19、本発明の効果を 挙げると前記第19の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図24、26において)、
『本明細書記載の「両離輻輳融合画像情報」(図24の119・図26の174)が持つ、輻輳融合画像情報可能な平面画像情報比較の差異範囲』(図24の115)以上の同差異範囲を持つ 平面画像情報(図24の116、図26の195)を
少なくとも1つ以上備えること、もしくは、同備えさせられること、
19. When the effects of the present invention are mentioned, the nineteenth stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus (in FIGS. 24 and 26)
More than “difference range of comparison of plane image information capable of convergence fusion image information” (115 in FIG. 24) possessed by “both separated convergence image information” (119 in FIG. 24 and 174 in FIG. 26) described in this specification. Having at least one plane image information (116 in FIG. 24, 195 in FIG. 26) having the same difference range, or having the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、
「両離輻輳融合画像情報」領域を過ぎ去った 半融合状態(図24の118、図26の195)を 生み出し、「両離輻輳融合画像情報」技法に、加えることが、可能となり、「両眼視差画像情報では可能な 目前まで飛び出すレベル領域」周辺の表現領域(図24の118・119・120、図26の196)を、拡大することができること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
By
It is possible to create a semi-fusion state (118 in FIG. 24, 195 in FIG. 26) that has passed the “both deconvergence fusion image information” area and add it to the “both deconvergence fusion image information” technique. The expression area (118, 119, and 120 in FIG. 24, and 196 in FIG. 26) around the “level area that pops out to the nearest possible with parallax image information” can be enlarged.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜18のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to eighteenth aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

20、本発明の効果を 挙げると前記第20の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図22において)、
「情報演算」(図22の202)・「情報検索」(図22の203)・
「情報受信」(図22の204)・「情報入力」(図22の102)・
「情報記憶」(図22の103)・「情報記録」(図22の104)・
「情報照合」(図22の205)・「情報制御」(図22の106)・
「情報実行」(図22の206)・「情報加工」(図22の105)・
「情報出力」(図22の107)・「情報再生」(図22の108)
「情報印刷」(図22の109)・「情報表示」(図22の110)、および、
の「情報送信」(図22の201)の内、
「各いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報処理」(図22の111)
を機能できること、もしくは、同機能させられること、
20. When the effect of the present invention is given, the 20th stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus (in FIG. 22)
“Information calculation” (202 in FIG. 22) • “Information search” (203 in FIG. 22)
“Information reception” (204 in FIG. 22) “Information input” (102 in FIG. 22)
“Information storage” (103 in FIG. 22) • “Information recording” (104 in FIG. 22)
“Information verification” (205 in FIG. 22) • “Information control” (106 in FIG. 22)
“Information execution” (206 in FIG. 22) “Information processing” (105 in FIG. 22)
“Information output” (107 in FIG. 22) / “Information reproduction” (108 in FIG. 22)
“Information printing” (109 in FIG. 22), “Information display” (110 in FIG. 22), and
"Information transmission" (201 in FIG. 22)
"Information processing consisting of one or more of each, various combinations of one or more of the same, or various superpositions of one or more of the same" (111 in FIG. 22)
That can function, or that

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、時間軸上のディジタル、もしくは/および、アナログまでの 空間情報や画像情報を 接触類・非接触類、有線類・無線類、および、ネットワーク類の通信手段で、情報交信(単方向・双方向)し、情報処理部や情報処理作動部で、情報処理(図22の240)することができること
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
By using the communication means such as contact / non-contact, wired / wireless, and networks, information communication (unidirectional / both) And information processing (240 in FIG. 22) can be performed by the information processing unit and the information processing operation unit.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜19のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to nineteenth aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

21、本発明の効果を 挙げると前記第21の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図23において)、
『前記「同種異系画像情報」同士の画像情報』(図23の112)が、
「残像による画像情報融合効果が有効な時間内の時間差《1秒あたりでは、61.85枚/秒(誤差±9枚)となる。誤差±9枚は、1個人の数値であるため、個々のぶれを15%ほど設けた。》をもたして時分割画像情報処理する」(図23の113)こと、
21. When the effects of the present invention are mentioned, the 21st stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus (in FIG. 23)
“Image information between the“ similar and different image information ”” (112 in FIG. 23)
“Time difference within the effective time of image information fusion effect due to afterimages << 61.85 images / second (error ± 9 images) per second. Since error ± 9 images is a value for one individual, “The time-sharing image information processing is performed with“ >> ”(113 in FIG. 23).

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、ディジタル、もしくは/および、アナログによる画像情報(図23の101・112)駒数が、「1秒あたり61.85駒/秒(誤差±9駒)」のスピードで、時分割画像情報処理できる(図23の113)平面画像情報保持物・平面画像情報処理装置上で、前記第1〜10・12、もしくは、15の立体画像情報を 立体画像情報として、時分割画像情報処理する(図23の113)ことにより、前記平面画像情報保持物・平面画像情報処理装置を
立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置に
変質・昇華させることになる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
Thus, digital or / and analog image information (101 and 112 in FIG. 23) is time-division image information processing at a speed of “61.85 frames / second (error ± 9 frames) per second”. (113 in FIG. 23) On the planar image information holding / planar image information processing device, the time-division image information processing is performed using the first to tenth, twelfth, or fifteenth stereoscopic image information as the stereoscopic image information (FIG. 23). 23) 113), the planar image information holding object / planar image information processing apparatus is
The stereoscopic image information holding object / image information stereoscopic processing apparatus or the stereoscopic image information processing apparatus is altered and sublimated.

極めて簡単な例として、現行のハイビジョン(1フレーム、プログレッシブ方式60駒/秒)放送網・ハイビジョン並高速大容量インターネット通信網において、情報交信される現行の平面画像情報が、国境を越えた世界中の国々で、立体画像情報放送網・立体画像情報インターネット通信網に、一瞬にして、変質変容・昇華できる技術革新が興ることになる。   As a very simple example, the current flat image information that is communicated in the current high-definition (1 frame, progressive 60 frames / second) broadcasting network and high-definition high-speed, large-capacity Internet communication network is transcended all over the world. Will bring about technological innovation that can instantly transform and sublimate in the 3D image information broadcast network and 3D image information Internet communication network.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜20のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding material / image information three-dimensional processing apparatus according to any one of the first to twentieth described above, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

22、本発明の効果を 挙げると前記第22の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図24において)、
前記様々な融合画像情報(図24の171〜174と188)に共通する融合可能な『「同種異系画像情報」同士の画像情報比較の「差異の画像情報」』において、
前記記載の「差異の画像情報」部分(図24の112)が、
『融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を 増減することができる、もしくは、同増減させられることができる差異の画像情報』(図24の115)、
『融合可能な該差異の範囲外での「強弱」、もしくは、同「高低」を 増減することができる画像情報、もしくは、同増減させられることができる差異の画像情報』(図24の116)、
『融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を ゼロにすることができる画像情報、もしくは、ゼロにさせられることができる差異の画像情報』(図24の117)、の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる画像情報信号、および、同画像情報光のいずれか1つ以上を備えること、もしくは、同備えさせられること、
22. When the effects of the present invention are given, the 22nd stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus (in FIG. 24)
In “variable image information” of image information comparison between “variable image information of the same kind” that can be fused to the various fused image information (171 to 174 and 188 in FIG. 24),
The "difference image information" part (112 in FIG. 24) described above is
“Image information of difference that can be increased / decreased or can be increased / decreased” within the range of the difference that can be fused (115 in FIG. 24),
“Image information that can increase or decrease“ strong ”or“ high or low ”outside the range of the difference that can be merged, or image information of the difference that can be increased or decreased (116 in FIG. 24) ,
“Image information that can make“ strong ”or“ high ”within the range of the difference that can be fused zero, or image information of the difference that can be made zero (117 in FIG. 24) ),
Any one or more, one or more various combinations, or one or more image information signals composed of one or more various superpositions and the same image information light, or the same Being

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能である、
各画像情報信号、および、同画像情報光であること、
により、前記第1〜10・12・15、もしくは、18の立体画像情報の
融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を 増減することができる、もしくは、同増減させられることができる(図24の115)、ことにより、
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or some of the actions are possible,
Each image information signal and the same image information light,
Can increase or decrease the “strength” or the “high / low” within the range of the difference in which the 1st to 10th, 12th, 15th, and 18th stereoscopic image information can be fused. Can be increased or decreased (115 in FIG. 24),

両形融合画像情報(図24の171)では、
比例して表示画面背後空間領域の立体感度合いを 視聴者が、見つめている表示画面背後空間領域内で、表示画面までの位置までの間で、前後に、増減すること(図24の119)が可能となる。
また、融合可能な該差異の範囲外での「強弱」、もしくは、同「高低」を 増減することができる、もしくは、同増減させられることができる(図24の116)、ことにより、比例して視聴者が、見つめていた表示画面背後空間領域内に存在していた視聴立体画像情報が、前記領域を、奥の方へ奥まった領域(視聴画面最奥領域)に、突入した画像情報前後移動感度合いを 増減すること(図24の118)が可能となる。
また、融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を ゼロにすることができる、もしくは、ゼロにさせられることができる(図24の117)、ことにより、比例して立体度を ゼロにして、元の平面画像情報に戻す(図24の120)事により、視聴者が、見つめていた表示画面背後空間領域内に存在していた視聴立体感画像情報が、当該領域を掛け登り、表示画面同等領域の平面画像情報に、落ち着くことになること(図24の120)が可能となる。
In the bimodal fusion image information (171 in FIG. 24),
The three-dimensional sensitivity in the space area behind the display screen is proportionally increased or decreased back and forth within the space area behind the display screen where the viewer is looking up to the position up to the display screen (119 in FIG. 24). Is possible.
In addition, the “strength” or the “high / low” outside the range of the difference that can be fused can be increased or decreased, or can be increased or decreased (116 in FIG. 24). Before and after the viewing stereoscopic image information that existed in the space area behind the display screen that the viewer was looking at entered the area deeper into the back (viewing screen innermost area). It is possible to increase or decrease the degree of movement sensitivity (118 in FIG. 24).
In addition, “strength” or “high / low” within the range of the difference that can be fused can be made zero, or can be made zero (117 in FIG. 24). Then, the stereoscopic degree image information that existed in the space area behind the display screen that the viewer was staring at by changing the stereoscopic degree to zero and returning to the original planar image information (120 in FIG. 24) It is possible to multiply the area and settle down on the plane image information in the display screen equivalent area (120 in FIG. 24).

両組融合画像情報(図24の172)、両形組融合画像情報(図24の173)、では、
比例して表示画面手前空間領域の立体感度合いを 視聴者が、見つめている表示画面手前空間領域内で、前後に、増減すること(図24の119)が可能となる。
また、融合可能な該差異の範囲外での「強弱」、もしくは、同「高低」を 増減することができる、もしくは、同増減させられることができる(図24の116)、ことにより、比例して視聴者が、見つめていた表示画面手前空間領域内に存在していた視聴立体画像情報が、前記領域を、超えた領域(視聴者の目前領域)に、突入した画像情報前後移動感度合いを 増減すること(図24の118)が可能となる。
また、融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を ゼロにすることができる、もしくは、ゼロにさせられることができる(図24の117)、ことにより、比例して立体度を ゼロにして、元の平面画像情報に戻す(図24の120)事により、視聴者が、見つめていた表示画面手前空間領域内に存在していた視聴立体感画像情報が、当該領域を後ずさり、表示画面同等領域の平面画像情報に、落ち着くことになること(図24の120)が可能となる。
In both sets fusion image information (172 in FIG. 24) and both sets fusion image information (173 in FIG. 24),
The three-dimensional sensitivity in the space area in front of the display screen can be proportionally increased or decreased in the space area in front of the display screen that the viewer is looking at (119 in FIG. 24).
In addition, the “strength” or the “high / low” outside the range of the difference that can be fused can be increased or decreased, or can be increased or decreased (116 in FIG. 24). The viewing stereoscopic image information that was present in the space area in front of the display screen that the viewer was staring at has entered the area beyond the above area (the area immediately before the viewer), and the degree of movement sensitivity before and after the image information has entered. It is possible to increase or decrease (118 in FIG. 24).
Further, the “strength” or “high / low” within the range of the difference that can be fused can be made zero, or can be made to be zero (117 in FIG. 24). Then, by reducing the stereoscopic degree to zero and returning to the original planar image information (120 in FIG. 24), the viewing stereoscopic image information that existed in the space area in front of the display screen that the viewer was staring at is It is possible to move back to the area and settle down to the plane image information of the display screen equivalent area (120 in FIG. 24).

両離輻輳融合画像情報(図24の174)では、
比例して目前領域の立体感度合いを 視聴者の目前内領域内で、前後に、増減すること(図24の119)が可能となる。
In both convergence and convergence image information (174 in FIG. 24),
It is possible to proportionally increase or decrease the stereoscopic sensitivity in the immediate area before and after (119 in FIG. 24) within the area in front of the viewer.

また、融合可能な該差異の範囲外での「強弱」、もしくは、同「高低」を 増減することができる、もしくは、同増減させられることができる(図24の116)、ことにより、比例して視聴者の目前内領域内に存在していた視聴立体画像情報が、目前領域を、超えた領域(視聴者の頭部、もしくは、背後領域)に、突入した画像情報前後移動感度合いを 増減すること(図24の118)が可能となる。
また、融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を ゼロにすることができる、もしくは、ゼロにさせられることができる(図24の117)、ことにより、比例して立体度を ゼロにして、元の立体融合画像情報に戻す(図24の120)事により、視聴者の目前内領域内に存在していた視聴立体感画像情報が、目前領域を後ずさり、表示画面前後領域の立体感融合画像情報(両形融合画像情報・両組融合画像情報・両形組融合画像情報)に、落ち着くことになること(図24の120)が可能となる。
In addition, the “strength” or the “high / low” outside the range of the difference that can be fused can be increased or decreased, or can be increased or decreased (116 in FIG. 24). The viewing stereoscopic image information that existed in the area in front of the viewer increased or decreased the forward / backward movement sensitivity of the image information that entered the area beyond the immediate area (viewer's head or back area). (118 in FIG. 24) can be performed.
Further, the “strength” or “high / low” within the range of the difference that can be fused can be made zero, or can be made to be zero (117 in FIG. 24). Then, by setting the stereoscopic degree to zero and returning to the original stereoscopic fusion image information (120 in FIG. 24), the viewing stereoscopic image information existing in the immediate area of the viewer moves back to the immediate area, It becomes possible to calm down to the stereoscopic image fusion image information (bimodal fusion image information / bimodal fusion image information / bimodal fusion image information) in the front and rear areas of the display screen (120 in FIG. 24).

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜21のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to twenty-first aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

23、本発明の効果を 挙げると前記第23の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図26において)、
前記「両形融合画像情報」(図26の171)・
「両組融合画像情報」(図26の172)・
「両形組融合画像情報」(図26の173)、および、
「両離輻輳融合画像情報」(図26の174)の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを 使い分ける処理情報」(図26の188)の「直前」(図26の189)「直後」(図26の190)「途中」(図26の191)「前のいずれか」(図26の192)、もしくは、「後のいずれか」(図26の193)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる位置」(図26の194)に、
「同各融合が起こらない処理情報」(図26の195)
を少なくとも1つ以上備えること、もしくは、同備えさせられること、
23. When the effects of the present invention are mentioned, the 23rd stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus (in FIG. 26)
The “both forms fused image information” (171 in FIG. 26).
"Both-set fusion image information" (172 in FIG. 26)
“Both-shaped set fusion image information” (173 in FIG. 26), and
Of the “both devergence fusion image information” (174 in FIG. 26),
“Processing information that uses one or more, one or more different combinations, or one or more different overlays” (188 in FIG. 26) “just before” (189 in FIG. 26) “just after” (see FIG. 26 of 190) “on the way” (191 in FIG. 26) “any one before” (192 in FIG. 26) or “any one after” (193 in FIG. 26),
"Position consisting of one or more, one or more various combinations, or one or more various superpositions" (194 in FIG. 26),
“Processing information that does not cause the same fusion” (195 in FIG. 26)
Comprising at least one or more of the same,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、観察視聴者が、融合画像情報から生じた立体画像情報を、通常時間内で、完全に、捕え認識できる迄の間に、非融合画像情報である非立体画像情報を挟み込むことにより、視聴者が、通常時間内で、立体画像情報を 完全に捕え切る時間を、遅らせることができるため、本観察視聴者認識に、当該立体画像情報の、生じ方・消滅の方法・移動感・停止感・重量感、軽量感、目前迫り感、飛び出し感、引っ込み感、立体感、速度感、および、目前去就感に、現実的重量感、現実的存在感、現実的迫力感、および、際立った現実感を 与えることが、技術的表現方法として可能となる。(図26の196)
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
Thus, the viewer can view the stereoscopic image information generated from the fused image information by sandwiching the non-stereoscopic image information that is the non-fused image information until the viewer can completely capture and recognize the stereoscopic image information within the normal time. Can delay the time for the viewer to completely capture the stereoscopic image information within the normal time.・ A feeling of weight, a feeling of lightness, a sense of nearness, a feeling of popping out, a feeling of pulling in, a three-dimensionality, a feeling of speed, and a feeling of immediate excellence, a realistic sense of weight, a realistic presence, a realistic sense of power, and an outstanding reality It is possible to give a feeling as a technical expression method. (196 in FIG. 26)

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜22のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to twenty-second embodiments, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

24、本発明の効果を 挙げると前記第24の立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図1・3・5・7・9・11・22〜27・30・32・34・36、および、38において)
前記第1〜23記載の各行為を実行処理する(図1・3・5・7・9・11・22〜27・30・32・34・36、および、38参照)コンピュータ処理プログラム情報を備えること、もしくは、同備えさせられること、
24. When the effects of the present invention are mentioned, the 24th stereoscopic image information holding object / image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (FIGS. 1, 3, 5, 7, 9, 11, 22). ~ 27.30.32.34.36 and 38)
Each of the actions described in the first to the 23rd is executed and processed (see FIGS. 1, 3, 5, 7, 9, 11, 22 to 27, 30, 32, 34, 36, and 38), and includes computer processing program information. Or being prepared for,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、各種様々なコンピュータ上で、前記第1〜23の立体画像情報を、情報処理可能となる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, since some of the actions are possible, the first to 23th stereoscopic image information can be processed on various computers.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜23のいずれかに記載の 立体画像情報保持物・画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the three-dimensional image information holding object / image information three-dimensional processing apparatus according to any one of the first to twenty-third aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations, or A stereoscopic image information processing apparatus.

25、本発明の効果を 挙げると前記第25の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図14において)
前記第25記載の条件下において、
前記可視発光画像情報信号(図14の3)の内、後方へ抜け出た 少なくも1部以上の可視発光画像情報信号(図14の8a)が、前記「箱O」(図14の5)の前記前方開口部(図14の6)を、入光した 同可視発光画像情報信号(図14の8b)は、前記「箱O」内部(図14の7)で、少なくとも1回以上 反射された 反射光信号となって、再び前記前方開口部(図14の6)から 出光し(図14の9a)、前記1ドット部、もしくは、1セル部(図14の2)を 逆通過後、前方(図14の1)へ進み出る可視発光画像情報信号(図14の9b)として、前記画像情報表示部(図14の1)の 前方空間に現れでる画像情報信号(図14の9c)を持っている、もしくは、持たされている、
25. When the effect of the present invention is given, the 25th image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIG. 14)
Under the conditions of the 25th,
Among the visible light emission image information signals (3 in FIG. 14), at least one or more visible light emission image information signals (8a in FIG. 14) that have come out backward are the “box O” (5 in FIG. 14). The visible emission image information signal (8b in FIG. 14) that has entered the front opening (6 in FIG. 14) was reflected at least once inside the “box O” (7 in FIG. 14). It becomes a reflected light signal and is emitted again from the front opening (6 in FIG. 14) (9a in FIG. 14), and after passing through the one dot part or one cell part (2 in FIG. 14) in the reverse direction, As the visible light emission image information signal (9b in FIG. 14) that proceeds to (1 in FIG. 14), the image information signal (9c in FIG. 14) that appears in the front space of the image information display section (1 in FIG. 14) is held. Or is held,

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、
図14において、観察視聴者が、可視発光画像情報信号(図14の3)に、視点・焦点を合わせた後、映像情報内容への感情移入から、視覚生態機能欲求が、さらに奥を見ようと、目を凝らして、観察したとき、少なくとも1回以上 反射された 反射光信号となって、前方へ進み出る可視発光画像情報信号(図14の9c・9b・9a)を捕えることになり、前記可視発光画像情報信号(図14の9c・9b・9a)の反射回数分だけ、視点・焦点を合わせ直すことが、可能となるため、視点移動、焦点移動が、可能となり、観察視聴者の視覚生態機能欲求満足感を持つ、見やすく、深みのある美しい可視画像情報信号光(図14の9c・9b・9a)として、認識されることになる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
By
In FIG. 14, after the viewer / viewer has adjusted the viewpoint / focus to the visible light emitting image information signal (3 in FIG. 14), the desire for visual ecological function is going to look further from the emotion transfer to the video information content. When scrutinized and observed, the visible light emission image information signal (9c, 9b, and 9a in FIG. 14) that has been reflected at least once and reflected forward is captured. Since it is possible to refocus the viewpoint and focus by the number of reflections of the luminescent image information signal (9c, 9b, and 9a in FIG. 14), the viewpoint and focus can be moved, and the visual ecology of the observation viewer It is recognized as a visible image information signal light (9c, 9b, and 9a in FIG. 14) that is easy to see and has a deep sense of function desire.

また、図15において、観察視聴者眼球(図15の18)に、斜め上部入射角から直接入ってくる外光(図15の12)反射を、奥へ反射導入したり・傾けて反射したり・球面反射・曲面反射することにより、さらに、前記外光反射角度と反射方向を変え分散させる(図15の13)働きも持ち、観察視聴者眼球(図15の18)に、斜め上部入射角から直接入ってくる反射外光(図15の14)を 減らすことができる。 Further, in FIG. 15, external light (12 in FIG. 15) reflected directly from the oblique upper incident angle is reflected into the observation viewer's eyeball (18 in FIG. 15), or is reflected and tilted. -Spherical reflection / curved surface reflection also changes and disperses the external light reflection angle and reflection direction (13 in FIG. 15), and the oblique upper incident angle on the viewer's eyeball (18 in FIG. 15). It is possible to reduce the reflected external light (14 in FIG. 15) that directly enters from.

また、図14・15・16・18において、有機エレクトロルミネセンス膜が、数ミクロンと薄いため、不印苛による黒色の表現時に、外光(図15の12)が、背面アルミ蒸着膜の鏡面に反射され、黒色の表現が、難しくなると思われる点の解消が、既存の画像情報表示部後部へ図14の5・図15の5・図16の5・図18の5の各構造体を設置すれば、前記外光(図15の12)反射が、奥へ反射導入したり・傾けて反射したり・球面反射・曲面反射することにより、さらに、前記外光反射角度と反射方向を変え分散させる(図15の13)ことで、前記黒色の表現が可能となる。 Further, in FIGS. 14, 15, 16, and 18, the organic electroluminescent film is as thin as several microns, so that when the black color is expressed by unprinted caustic, external light (12 in FIG. 15) is reflected on the mirror surface of the back aluminum evaporated film. In order to eliminate the point that the black expression is difficult to be reflected, the structures of 5 in FIG. 14, 5 in FIG. 15, 5 in FIG. 16, and 5 in FIG. If installed, the external light (12 in FIG. 15) is reflected back into the back, reflected at an angle, reflected from a spherical surface, or reflected from a curved surface, thereby further changing the angle and direction of reflection of the external light. By dispersing (13 in FIG. 15), the black color can be expressed.

および、既存の「可視自発光体類(プラズマ類・エレクトロルミネッセンス類・表面電界類(SE)等の可視自発光体類)からなる画像情報表示部類」の後部に(図16の20B通過型と図15の15と16・図16の20C・図18の15と16透過型)に、たやすく設置でき、 And the rear part of the existing “image information display unit composed of visible self-luminous materials (visible self-luminous materials such as plasmas, electroluminescence, surface electric fields (SE), etc.)” (in FIG. 15 and 16 in FIG. 15, 20C in FIG. 16, 15 and 16 in FIG.

また、既存のプラズマ類発光の場合(図16の20A)、プラズマ発光用密閉型ガス(図16の65)室を必要とするため、図16の20Bの場合、プラズマ発光用密閉型ガス(図16の65)室が、後部に増設した内部同ガス室体積分だけ(図16の20Bの5)、密閉型ガス(図16の65)室の体積も 飛躍的に、増えることになり、結果、該プラズマ発光用ガス量を 飛躍的に増量できる事になる。
従って、プラズマ発光用ガスの劣化時間を、該ガス量飛躍的増加(図16の20Bの5)に比例して、飛躍的に引き伸ばすことができ、従来よりも、長時間安定した、発光と色彩表現が、可能となる
Further, in the case of the existing plasma emission (20A in FIG. 16), since a plasma emission sealed gas (65 in FIG. 16) chamber is required, in the case of 20B in FIG. 16, the plasma emission sealed gas (see FIG. 16). 16 65), the volume of the closed gas (65 in FIG. 16) chamber is dramatically increased only by the internal same gas chamber volume added at the rear (5 in FIG. 16B), and the result Therefore, the amount of plasma emission gas can be dramatically increased.
Therefore, the deterioration time of the plasma emission gas can be dramatically increased in proportion to the gas amount dramatically increasing (5 of 20B in FIG. 16), and the emission and color are stable for a longer time than before. Expression is possible

また、従来のプラズマ類発光の場合(図16の20A)よりも、後方へ流れるプラズマ蛍光発光を、後方鏡面反射面により、従来よりも多く前方へ反射させることができるため、前面出力プラズマ蛍光発光量を、従来よりも多く前方へ反射した分だけ、光量を増量できることになる。 Further, since the plasma fluorescence emission flowing backward can be reflected more forward by the rear specular reflection surface than in the case of the conventional plasma emission (20A in FIG. 16), the front output plasma fluorescence emission. The amount of light can be increased by the amount that is reflected forward more than the conventional amount.

従って、従来の前面出力プラズマ蛍光発光量と同量の同蛍光発光量を得るためには、従来のプラズマ類発光よりも、前記光量を増量した分だけ少なくした発光量で、従来の前面出力プラズマ蛍光発光量と同量の同蛍光発光量を得ることができることになる。
つまり、従来のプラズマ類発光に必要な消費電力よりも、前記光量を増量した分だけ少ない同消費電力で、事足りることが、可能となる。
Therefore, in order to obtain the same amount of fluorescent light emission as that of the conventional front-surface output plasma fluorescent light emission, the conventional front-surface output plasma can be obtained with a light emission amount that is less than the conventional plasma light emission by the amount of increase of the light amount. The same amount of fluorescent light emission as the amount of fluorescent light emission can be obtained.
That is, it is possible to suffice with the same power consumption that is less than the power consumption required for conventional plasma emission by the amount of the light.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜24のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to twenty-fourth aspects, wherein the effect of the present invention is an effect of various combinations of one or more and one or more of the above effects. It is.

26、前記第26の発明の効果を 挙げると前記第26の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図39において)
前記発明の効果 第25記載と同じ効果を 本項目の発明の効果とする
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報」(図39の188)からなる画像情報立体化処理装置・立体画像情報処理装置である。
26. When the effect of the twenty-sixth invention is mentioned, the twenty-sixth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus is (in FIG. 39)
Advantages of the Invention The same effect as described in item 25 is the effect of the invention of this item. “Both-shaped fusion image information” (171 in FIG. 39).
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
This is an image information stereoscopic processing apparatus / stereoscopic image information processing apparatus comprising “one or more, one or more various combinations, or one or more various superimposed image information” (188 in FIG. 39).

27、本発明の効果を 挙げると前記第27の画像情報立体化処理装置、もしくは、立体画像情報処理装置は(図15において)、
少なくとも1部以上が、表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面で、構成されている画像情報表示部上の、外光反射が起きる 前面表示面(図15の1)において、
前記各外光反射表示面(図15の1)上の1個の凸(図15の21)が、前記第25記載の1ドット部、もしくは、1セル部(図15の2)に対して、数ドット単位部以下、もしくは、数セル単位部以下の
「微細な同単位以下の 凸状態仕上げ面」(図15の1)、
「微細な同単位以下の 凸レンズ状態仕上げ面」(図15の1)、および、
「液晶類モニター画面の 視野角を広げる働きを持つ透過性板状態物質類、もしくは、同透過性膜状態物質類(=液晶類モニター画面で使用されている 内部で偏向された可視画像情報信号光を 外部空間に、上下少なくとも 左右いずれかに分散放出する働きを持つシート類、もしくは、同フィルム類)が、使用されている仕上げ面」(図15の1)、
の各1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、少なくとも1部以上の仕上げ面(図15の1)構成されていること
により、
「凸状態仕上げ」(図15の21)、もしくは、「凸レンズ状態仕上げ」(図15の21)により、直接外光・間接反射外光(図15の12)の鏡面的反射(図15の14)を、乱反射・分散反射させることにより、多方向に、分散でき、直接外光・間接反射外光(図15の12)を 正確に捕えることができなくなり、前面表示面前方空間に、飛び出す 図14の9cの弱い輝度の可視発光画像情報信号をも 観察視聴者(図15の18)に取って、容易に、捕得られ、見易い画像情報表示面(図15の1)とする事が、可能となる。
27. When the effects of the present invention are mentioned, the twenty-seventh image information three-dimensional processing apparatus or three-dimensional image information processing apparatus (in FIG. 15)
At least one part is composed of a display screen protective function combined use glass surface, the display screen protection function combined use transmissive plate state material surface, or the display screen protection function combined use permeable membrane state material surface. On the front display surface (1 in FIG. 15) where external light reflection occurs on the image information display section,
One protrusion (21 in FIG. 15) on each of the external light reflection display surfaces (1 in FIG. 15) corresponds to one dot portion or one cell portion (2 in FIG. 15) described in 25th above. , “Fine convex surface of the same unit or less” (1 in FIG. 15)
"Fine convex lens surface with the same unit or less" (1 in FIG. 15), and
“Transparent plate state substances that work to widen the viewing angle of liquid crystal monitor screens, or the same transparent film state substances (= internally deflected visible image information signal light used in liquid crystal monitor screens) In the external space, a finished surface on which sheets or films having the function of dispersing and releasing in at least one of the upper, lower, right and left sides are used ”(1 in FIG. 15),
Each of one or more of the above, various combinations of one or more of the same, or one or more of various superpositions, and at least one part of the finished surface (1 in FIG. 15) is configured.
By “convex state finishing” (21 in FIG. 15) or “convex lens state finishing” (21 in FIG. 15), specular reflection of direct external light and indirect reflected external light (12 in FIG. 15) (14 in FIG. 15). ) Can be dispersed in multiple directions by diffused reflection and dispersion reflection, and direct outside light and indirect reflection outside light (12 in FIG. 15) cannot be accurately captured, and jumps out to the front space on the front display surface. 14 and 9c, the visible light emitting image information signal having a weak luminance of 9c is taken by the viewer (18 in FIG. 15), and can be easily captured and displayed as an image information display surface (1 in FIG. 15). It becomes possible.

また、図14、図15において「凸状態仕上げ」、もしくは、「凸レンズ状態仕上げ」の1個の凸(図15の21)が、前記第25記載の1ドット部、もしくは、1セル部(図14の2)の 対応した大きさより、更に小さい場合、最小単位画像情報解像度である1ドット部、もしくは、1セル部(図14の2)から、前面表示面前方空間に、飛び出した最小単位可視発光画像情報信号(図14の9c)の解像度を、前記1個の凸(図15の21)の大きさが、ある程度迄小さければ小さいほど、前記最小単位解像度を落とすことなく前面表示面(図14の1)前方空間に、放射(図14の9c)できることになり、1ドット部、もしくは、1セル部(図14の2)表示面面積当たりの最小単位解像度を 落とすことのない 美しく・見易い画像情報表示面(図14の1)となる。 14 and 15, one convex portion (21 in FIG. 15) of “convex state finishing” or “convex lens state finishing” is the one dot portion or one cell portion (see FIG. 25). 14) If the size is smaller than the corresponding size of 2), the minimum unit visible that protrudes from the 1-dot portion or 1-cell portion (2 in FIG. 14), which is the minimum unit image information resolution, to the front display surface front space. As the resolution of the light emission image information signal (9c in FIG. 14) is reduced to a certain extent, the front display surface (FIG. 15) is reduced without decreasing the minimum unit resolution. 14-1) Radiation (9c in FIG. 14) can be emitted in the front space, and the minimum unit resolution per display surface area of 1 dot part or 1 cell part (2 in FIG. 14) is not lost. image Broadcast display surface becomes (1 in FIG. 14).

また、前記1個の凸(図15の21)は、内側からの光(図14の9b)が、外へ通過する時(図14の9c)、前記凸(図15の21)の形状から、光が、四方に分散して、外へ放射されるため、1ドット部、もしくは、1セル部(図14の2)から発した 可視発光画像情報信号(図14の9c)は、前記1個の凸(図15の21)を 通過後、前面表示面前方空間の四方に分散して、飛び出すことになり、観察視聴者(図15の18)にとって、多方向角度から、前記可視発光画像情報信号(図14の9c)を観察できることが、可能となる Further, the one protrusion (21 in FIG. 15) is formed from the shape of the protrusion (21 in FIG. 15) when light from the inside (9b in FIG. 14) passes outside (9c in FIG. 14). Since the light is dispersed in all directions and emitted to the outside, the visible light emission image information signal (9c in FIG. 14) emitted from one dot portion or one cell portion (2 in FIG. 14) After passing through the projections (21 in FIG. 15), it is dispersed in four directions in the front space of the front display surface and jumps out. For the viewer (18 in FIG. 15), the visible light emitting image is viewed from a multi-directional angle. It is possible to observe the information signal (9c in FIG. 14)

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜26のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to twenty-sixth aspects, wherein the effect of the present invention is an effect of one or more and the same one or more of the above effects. It is.

28、本発明の効果を 挙げると前記第28の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図19、図20において)
前記第28記載の条件下において、
前記可視自発光体類(図19の86)から、前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面(図19の38)までの 各いずれかの間の 少なくとも1ヶ所以上の位置(図19の80)に、
前記「囲壁P」(図20の37)が 設置されることにより、
前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面(図19の38)から、
前方空間へ放射される可視発光画像情報信号(図19の45)が、前記反射体験で偏向された
前記可視発光情報信号(図20の43)、もしくは、可視発光画像情報信号(図20の44)の 少なくともいずれか から 構成された画像情報信号を持っている、もしくは、持たされている、
28. When the effects of the present invention are mentioned, the twenty-eighth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus (in FIGS. 19 and 20)
Under the condition of the 28th,
From the visible self-luminous materials (86 in FIG. 19), the display screen protection function / glass surface in the front row, the display screen protection function / transmission plate state substance surface, or the display screen protection function / transmission At least one position (80 in FIG. 19) between each of the substances up to the surface of the sex membrane state substance (38 in FIG. 19)
By installing the “enclosure P” (37 in FIG. 20),
From the display screen protection function combined use glass surface of the front row, the display screen protection function combined use permeable plate state material surface, or the display screen protection function combined use permeable membrane state material view (38 in FIG. 19),
A visible luminescence image information signal (45 in FIG. 19) radiated to the front space was deflected by the reflection experience.
It has or is provided with an image information signal composed of at least one of the visible light emission information signal (43 in FIG. 20) or the visible light emission image information signal (44 in FIG. 20).

または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
により、
観察視聴者が、可視発光画像情報信号(図19の45・図20の45)に、視点・焦点を合わせた後、映像情報内容心情から、視覚生態機能欲求が、さらに奥を見ようと、目を凝らして、観察したとき、前記反射体験で偏向された 前記可視発光情報信号(図20の43)、もしくは、前記可視発光画像情報信号(図20の44)の 少なくともいずれか から 構成された可視発光画像情報信号(図20の46)を捕えることになり、前方用可視発光画像情報信号(図20の46)の反射回数分だけ、視点・焦点を合わせ直すことが、可能となるため、視点移動、焦点移動が、可能となり、観察視聴者の視覚生態機能欲求満足感から、見易く、深みのある美しい画像情報信号光(図20の46)として、認識されることになり、観察視聴者が、既存の液晶画面以上の奥行き感がある美しさを感じ取る事が、可能となる。
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
By
After the viewing viewer focuses on the visible light emitting image information signal (45 in FIG. 19 and 45 in FIG. 20), the visual ecological function cravings look deeper from the heart of the video information content. When the observation is performed, the visible light composed of at least one of the visible light emission information signal (43 in FIG. 20) or the visible light emission image information signal (44 in FIG. 20) deflected by the reflection experience is observed. Since the luminescent image information signal (46 in FIG. 20) is captured, the viewpoint / focus can be refocused by the number of reflections of the forward visible luminescent image information signal (46 in FIG. 20). It is possible to move and move the focal point, and it will be recognized as a beautiful and clear image information signal light (46 in FIG. 20) that is easy to see and deep from the viewer's visual ecological function desire satisfaction. , Already It is possible to feel the beauty with a sense of depth that exceeds the existing LCD screen.

また、図21において、
観察視聴者眼球(図21の18)に、斜め上部入射角から直接入ってくる外光(図21の12)反射を、奥へ反射導入したり・傾けて反射したり・球面反射・曲面反射することにより、さらに、前記外光反射角度と反射方向を変え分散させる(図21の13)働きも持ち、観察視聴者眼球(図21の18)に、斜め上部入射角から直接入ってくる反射外光(図21の14)を さらに、減らすことができる。
In FIG.
Reflection of external light (12 in FIG. 21) that directly enters the observation viewer's eyeball (18 in FIG. 21) from an oblique upper incident angle is reflected into the back, reflected obliquely, spherical reflection, curved surface reflection Accordingly, the reflection angle and the reflection direction of the external light are changed and dispersed (13 in FIG. 21), and the reflection directly enters the observation viewer's eyeball (18 in FIG. 21) from the oblique upper incident angle. External light (14 in FIG. 21) can be further reduced.

および、図19、図20において、前記「囲壁P」(図20の37)を既存の「液晶類からなる画像情報表示部類」のいずれかの間の位置(図19の80)に、たやすく設置できる。 19 and 20, the “enclosure P” (37 in FIG. 20) can be easily placed at a position (80 in FIG. 19) between any of the existing “image information display sections made of liquid crystals”. Can be installed.

また、図14、図20において、極めて簡単な例であるプラズマ類などの可視自発光体類(図14の3、および、2)の後部に、「箱O」(図14の5)を、設置する前記第25よりも、同可視自発光体類(図14の3、および、2)の前部に(図14の23)、「囲壁P」(図20の37)を、設置する前記第32の構造体の方が、視点移動、焦点移動が、行い易くなる。   14 and 20, a “box O” (5 in FIG. 14) is placed at the rear of visible self-luminous materials (3 and 2 in FIG. 14) such as plasmas, which are extremely simple examples. More than the 25th to be installed, the “enclosure P” (37 in FIG. 20) is installed in front of the visible self-luminous bodies (3 and 2 in FIG. 14) (23 in FIG. 14). The thirty-second structure is easier to move the viewpoint and focus.

何故ならば、一般的に、視点移動、焦点移動を行う場合、自発光体類(図14の3)の1回以上の反射光(図14の9a〜9c)は、反射する度に、該(図14の9a〜9c)輝度が、元の自発光体類(図14の3)の輝度より、確実に 落ちながら、反射を 繰り返して行く。 This is because, in general, when performing viewpoint movement and focal point movement, one or more reflected lights (9a to 9c in FIG. 14) of the self-luminous bodies (3 in FIG. 14) are reflected each time they are reflected. (9a to 9c in FIG. 14) The reflection is repeated while the luminance is surely lower than the luminance of the original self-luminous body (3 in FIG. 14).

従って、反射光(図14の9a〜9c)を 視点移動、焦点移動で、追いかける場合、光源である元の自発光体類(図14の3)よりも、後部位置に、反射位置がある(図14の5)よりも、元の自発光体類よりも、前部・手前にその位置がある(図14の23)方が、強い輝度の自発光体類(図14の3)に、視点移動、焦点移動を 邪魔されずに、弱い輝度の反射光《図14の23に設置された「囲壁P」(図20の37)で、反射される図14の9a〜9c》を 観察視聴者が、追いかけ易くなる。   Therefore, when the reflected light (9a to 9c in FIG. 14) is chased by moving the viewpoint or moving the focal point, there is a reflection position at the rear position relative to the original light-emitting body (3 in FIG. 14) as the light source ( Compared to 5) in FIG. 14, the position of the front and front (23 in FIG. 14) is higher than that of the original self-luminous body in the self-luminous body (3 in FIG. 14) with higher luminance. Observation and viewing of reflected light with weak luminance << 9a-9c in Fig. 14 reflected by "enclosure P" (37 in Fig. 20) installed at 23 in Fig. 14} without disturbing the movement of the viewpoint and the focus Become easier to follow.

つまり、可視自発光体類(図14の3)の後部位置に、反射体を、設置する構造体(図14の5)である前記第25記載の「箱O」(図14の5)よりも、可視自発光体類(図14の3)の前部位置(図14の23)に、反射体(図20の37である「囲壁P」)を、設置する構造体である前記第28「囲壁P」(図20の37)の方が、観察視聴者に取り、視点移動、焦点移動が、行い易く、見易く、深みのある美しい画像情報になると言える。 That is, from the “box O” (5 in FIG. 14) described in the 25th above, which is a structure (5 in FIG. 14) in which a reflector is installed at the rear position of the visible light-emitting bodies (3 in FIG. 14). The 28th is a structure in which a reflector (“enclosure P” 37 in FIG. 20) is installed at the front position (23 in FIG. 14) of the visible light-emitting bodies (3 in FIG. 14). It can be said that “enclosure P” (37 in FIG. 20) is beautiful image information that is easy to view, easy to see, and deep, and is easy to view and move for the viewer.

また、前記より、更に、より視点移動、焦点移動が、行い易く、見易く、より深みのある美しい画像情報になる構造体は、可視自発光体類の前部(図14の23)と後部(図14の5の位置)の両位置に、計2以上の反射体を、設置する構造体であることは、言うまでもない。 In addition to the above, the structure that makes the image information that is easier to view, easier to see, and deeper and more beautiful to be imaged is the front part (23 in FIG. 14) and the rear part (23 in FIG. 14). Needless to say, it is a structure in which a total of two or more reflectors are installed at both positions (5) in FIG.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜27のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to twenty-seventh aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations. It is.

29、本発明の効果を 挙げると前記第29の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図39において)
前記発明の効果 第28記載と同じ効果を 本項目の発明の効果とする
「両形融合画像情報」(図39の171)・
「両組融合画像情報」(図39の172)・
「両形組融合画像情報」(図39の173)、および、
「両離輻輳融合画像情報」(図39の174)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報」(図39の188)からなる画像情報立体化処理装置・立体画像情報処理装置である。
29. When the effects of the present invention are mentioned, the 29th image information stereoscopic processing apparatus or stereoscopic image information processing apparatus is (in FIG. 39)
Advantages of the Invention The same effect as described in item 28 is the effect of the invention of this item "Bilateral fusion image information" (171 in FIG. 39).
"Both-set fusion image information" (172 in Fig. 39)
“Both-type combined image information” (173 in FIG. 39), and
Of the “both devergence fusion image information” (174 in FIG. 39),
This is an image information stereoscopic processing apparatus / stereoscopic image information processing apparatus comprising “one or more, one or more various combinations, or one or more various superimposed image information” (188 in FIG. 39).

30、本発明の第30の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図14、19、38に、おいて)
前記第25、もしくは、前記第28記載の
「前記1ドット部、もしくは、1セル部に 少なくとも1部以上が、対応するように設置」
(図14の2と5、図19の34と80)の記載部分が、
「前記1ドット部、もしくは、1セル部を含んだ1以上のいずれかのドット部、もしくは、
同1以上のいずれかのセル部に 少なくとも1部以上が、対応するように設置」(図38の5・37と「3個の2」の「各Red・Blue・Green」) に変更記載されていること
により、
観察視聴者が、可視発光画像情報信号に、視点・焦点を合わせた時、1ドット部、もしくは、1セル部単独(図38の2のみ、つまり、Redのみ・Blueのみ・Greenのみ)による、単調な鏡面反射可視光パターンを、「1以上のいずれかのドット部、もしくは、同1以上のいずれかのセル部」(図38の3個の2、つまり、RedとBlueとGreenの3個)による より複雑で、より変化に富む、鏡面(図38の『「三角柱型囲壁P」37の39』と『「三角柱型箱O」5の7』)反射可視光パターンを得ることができ、観察視聴者に取って、より複雑で、より変化に富む、美しい可視発光画像情報信号1ドット以上・1セル以上の反射光パターンを 観察できることになること
30. A thirty-third image information three-dimensional processing apparatus or three-dimensional image information processing apparatus according to the present invention (in FIGS. 14, 19, and 38).
[25] or [28], wherein "at least one or more parts are installed in one dot part or one cell part"
(2 and 5 in FIG. 14, 34 and 80 in FIG. 19)
“The one dot portion, or any one or more dot portions including one cell portion, or
"At least one or more parts are installed to correspond to any one or more of the cell parts"("5/37 in Fig. 38 and" 3 2 "in each" Red, Blue, and Green "). By
When the viewer / viewer adjusts the viewpoint / focus to the visible light emission image information signal, it is based on one dot part or one cell part alone (only 2 in FIG. 38, that is, only Red, only Blue, and only Green). The monotonous specular reflection visible light pattern is expressed as “one of one or more dot portions or one of one or more cell portions” (three two in FIG. 38, that is, three of Red, Blue, and Green). ) And more complex and more varied mirror surfaces ("Triangular prism-shaped enclosure P" 37 of 39 "and" Triangular prism-shaped box O "5 of 7) reflected visible light pattern, The viewer will be able to observe a reflected light pattern of more than 1 dot and more than 1 cell of a beautiful visible light emission image information signal that is more complex and more varied.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜29のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to 29th aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations among the effects described above. It is.

31、本発明の第31の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図14、19、38に、おいて)
前記第25、もしくは、前記第28記載の
「前記1ドット部、もしくは、1セル部に 少なくとも1部以上が、対応するように設置」
(図14の2と5、図19の34と80)の記載部分が、
「前記1画素部を含んだ1以上のいずれかの画素部に 少なくとも1部以上が、対応するよ
うに設置」(図38の5・37と19)
に変更記載されていること
により、
観察視聴者が、可視発光画像情報信号に、視点・焦点を合わせた時、1画素部単位の単独による、単調な鏡面反射可視光パターンを、「1以上のいずれかの画素部」に変更することにより、前記第25、もしくは、前記第28記載部分より、より複雑で、より変化に富む、鏡面反射可視光パターンを得ることができ、観察視聴者に取って、より複雑で、より変化に富む、美しい可視発光画像情報信号1画素以上の反射光パターンを 観察できることになる。
31. A thirty-first image information three-dimensional processing apparatus or three-dimensional image information processing apparatus according to the present invention (in FIGS. 14, 19, and 38).
[25] or [28], wherein "at least one or more parts are installed in one dot part or one cell part"
(2 and 5 in FIG. 14, 34 and 80 in FIG. 19)
“Install at least one pixel unit corresponding to one or more pixel units including the one pixel unit” (5, 37 and 19 in FIG. 38).
Because the change is described in
When the viewer / viewer adjusts the viewpoint / focus to the visible light emission image information signal, the monotonous specular reflection visible light pattern by one pixel unit is changed to “one or more pixel units”. Thus, a more complex and more varied specular reflection visible light pattern can be obtained from the 25th or 28th part, and the observation viewer can be more complicated and more varied. A rich and beautiful reflected light image information signal of one pixel or more can be observed.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜30のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to thirty aspects, wherein the effect of the present invention is an effect of various combinations of one or more and one or more of the effects described above. It is.

32、本発明の第32の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図18、20において)
前記第25記載の「箱O」(図18の5)、もしくは、前記第28記載の「囲壁P」(図20の37B)は、
「箱O」(図18の5)、もしくは、「囲壁P」(図20の37B)の少なくとも1部以上、もしくは、全体が、近似値内の方向へ、もしくは、近似値内の距離だけ 傾けられている箇所が、少なくとも1ヶ所以上 設置されている(図18の22・図20の42)こと
以上により、この様に傾けられている箇所(図18の22・図20の42)が、設置されていない前記第25記載の「箱O」(図14の5)、もしくは、前記第28記載の「囲壁P」(図20の37A)よりも、同設置した同「箱O」(図18の5)、もしくは、同「囲壁P」(図20の37B)の方が、傾き箇所を増やした分だけ、反射回数を増やすことができ(図18の13・図20の「37Bの43・44」)、視点移動、焦点移動の位置・回数を、増やすことが、可能となり、観察視聴者が、視覚生体機能から生じる美しさを 従来のプラズマ画面・液晶画面よりも、さらに感じ取ることが、可能となる。
32. A thirty-second image information three-dimensional processing apparatus or three-dimensional image information processing apparatus of the present invention (in FIGS. 18 and 20)
The “box O” according to the 25th (5 in FIG. 18) or the “enclosure P” according to the 28th (37B in FIG. 20)
At least one or more of “box O” (5 in FIG. 18) or “enclosure P” (37B in FIG. 20) or the whole is inclined in the direction within the approximate value or by the distance within the approximate value. At least one or more locations are installed (22 in FIG. 18 and 42 in FIG. 20). Thus, the locations inclined in this way (22 in FIG. 18 and 42 in FIG. 20) The “box O” (FIG. 14-5) not installed or the “box P” (37A in FIG. 20) described in FIG. 18-5) or “enclosure P” (37B in FIG. 20), the number of reflections can be increased by the increase of the inclined portion (13 in FIG. 18, 43 of 37B in FIG. 20).・ 44 ”), it is possible to increase the position and frequency of viewpoint movement and focal point movement. Next, the observation viewer, than the beauty resulting from the visual biofunctional conventional plasma screen, LCD screen, be further feel becomes possible.

また、図18において、観察視聴者眼球(図18の18)に、斜め上部入射角から直接入ってくる外光(図18の12)反射を、奥へ反射導入したり・傾けて反射したり・球面反射・曲面反射することにより、さらに、前記外光反射角度と反射方向を変え分散させる(図18の13)働きももち、観察視聴者眼球(図18の18)に、斜め上部入射角から直接入ってくる反射外光(図18の14)を さらに、観察視聴者眼球(図18の18)の視点から、減らすことができる。 Further, in FIG. 18, external light (12 in FIG. 18) reflected directly from the oblique upper incident angle is introduced into the observation viewer's eyeball (18 in FIG. 18) or reflected back and reflected. The spherical reflection / curved surface reflection has a function to change and disperse the external light reflection angle and reflection direction (13 in FIG. 18), and to the observer's eyeball (18 in FIG. 18) from the oblique upper incident angle. Direct reflected external light (14 in FIG. 18) can be further reduced from the viewpoint of the observer's eyeball (18 in FIG. 18).

また、有機エレクトロルミネセンス膜が、数ミクロンと薄いため、不印苛による黒色の表現時に、外光(図18の12)が、背面アルミ蒸着膜の鏡面に反射され、黒色の表現が、難しくなると思われる点の解消が、既存の画像情報表示部へ図18の5の構造体を設置すれば、前記外光(図18の12)反射が、奥へ反射導入したり・傾けて反射したり・球面反射・曲面反射することにより、さらに、前記外光反射角度と反射方向を変え分散させる(図18の13)ことで、前記黒色の表現が可能となる。 In addition, since the organic electroluminescence film is as thin as several microns, external light (12 in FIG. 18) is reflected on the mirror surface of the back aluminum vapor deposition film when black is displayed due to unprinted caustic, making black expression difficult. If the structure 5 in FIG. 18 is installed on the existing image information display unit, the external light (12 in FIG. 18) reflection is introduced into the back or reflected by tilting. Further, the black color can be expressed by changing and dispersing the reflection angle and the reflection direction of the external light (13 in FIG. 18).

および、前記第32記載の「囲壁P」の場合は、既存の「液晶類からなる画像情報表示部類」のいずれかの間(図19の80)にも、たやすく設置でき、以上の様な効果を加えることができる。 In the case of the “enclosure P” described in the thirty-second embodiment, it can be easily installed between any of the existing “image information display sections made of liquid crystals” (80 in FIG. 19). An effect can be added.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜31のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to thirty-first aspects, wherein the effect of the present invention is an effect of one or more and one or more of the above effects. It is.

33、本発明の効果を 挙げると前記第33の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図18において)
前記第32記載の「近似値内の方向」が、
「少なくとも1部以上の部分が、近似値内とは、異なる方向」
「全く異なる方向」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、記載されている。
以上により、前記第32記載の方向より、複雑な方向へ傾けられるため、前記第32記載の方向より、さらに複雑な方向への視点移動、焦点移動の位置・回数を、増やすことが、可能となり、観察視聴者が、視覚生体機能から生じる美しさを 従来の液晶画面よりも、さらに感じ取ることができること
33. When the effect of the present invention is mentioned, the thirty-third image information three-dimensional processing apparatus or three-dimensional image information processing apparatus is (in FIG. 18)
The "direction within the approximate value" described in the 32nd is
"At least one part is in a different direction from the approximate value"
Of the "totally different directions"
It is described in one or more, one or more various combinations, or one or more various superpositions.
As described above, since it is tilted in a more complicated direction than the direction described in the 32nd, it is possible to increase the position and the number of times of viewpoint movement and focal point movement in a more complicated direction than the direction described in the 32nd. The viewers can perceive the beauty resulting from visual biological functions more than conventional LCD screens.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜32のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。 The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to thirty-second aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations among the effects described above. It is.

34、本発明の効果を 挙げると前記第34の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図18において)
前記第32記載の「近似値内の距離」が、
「少なくとも1部以上の部分が、近似値内とは、異なる距離」
「全く異なる距離」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、記載されていること。
以上のことにより、前記第32記載の距離より、複雑な距離へ傾けられるため、前記第32記載より、さらに複雑な位置への視点移動、焦点移動の位置・回数を、増やすことが、可能となり、観察視聴者が、視覚生体機能から生じる美しさを 従来の液晶画面よりも、さらに感じ取ることができる。
34. When the effect of the present invention is mentioned, the thirty-fourth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus is (in FIG. 18)
The “distance within the approximate value” described in Item 32 is
"At least one part is different from the approximate value"
Within a “totally different distance”
It must be described in one or more, one or more various combinations, or one or more various overlays.
As described above, since the tilted distance is more complicated than the distance described in the 32nd, it is possible to increase the position and the number of times of moving the viewpoint and focus to a more complex position than those described in the 32nd. The viewer can perceive the beauty resulting from the visual biological function more than the conventional LCD screen.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜33のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to thirty-third aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations. It is.

35、本発明の効果を 挙げると前記第35の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図17・図19・図20において)
前記第25、もしくは、前記第28記載の
『「画像情報表示部内」のいずれか』(図19の31)
『「1ドット部、もしくは、1セル部」の 内部、もしくは、隣接外部の 各いずれか』
(図17の10・図19の34)
『「箱O」、もしくは、「囲壁P」の各開口部の いずれか』(図17の6・図20の36と40)、
『「箱O」、もしくは、「囲壁P」の各内部の いずれか』(図17の5・図20の37の各内部)、もしくは、
『前記各部相互に挟まれた間の いずれか』(図17の10・図19の80)
の内、少なくともいずれか1箇所以上に、
「カラーフィルター類」
「カラーフィルター類と 近似値内の機能を 保持している濾過光性塗料類」
「前記同機能を 保持している濾過光性膜類」、および、
「前記同機能を 保持している濾過光性透過物質類」
の 各少なくとも いずれかの1部以上、もしくは、全部の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、設置されていること
以上のことにより、前記第25、もしくは、前記第28記載の前記1ドット部、もしくは、1セル部(図17の2・図19の34)より、前記1ドット部、もしくは、1セル部(図17の2・図19の34)のカラー度が、カラーフィルター類(図17の10)で濾過した濾過光分だけ純度が、増し、および、カラーフィルター類(図17の10)以外の不純カラー度(可視自発光体類の発光色には、プラズマ類発光時の僅かな可視紫色光や不純蛍光体の雑光色光が、混ざってしまう)を削ぎ落とす フィルターの役目も果たし、純度の高い純正カラー度を獲得した、彩度・色鮮やかさによる美しい可視画像情報信号を得ることができる。また、あわせて、前記第35記載のカラーフィルター類・同濾過光性塗料類・同濾過光性膜類、および、同濾過光性透過物質類の内、少なくともいずれか1つ以上の位置に、視点・焦点移動可能な立体画像情報をも 実現できることが、可能となる。
35. When the effects of the present invention are mentioned, the thirty-fifth image information three-dimensional processing device or three-dimensional image information processing device is (in FIGS. 17, 19, and 20).
The “25th or 28th“ in the image information display section ”” (31 in FIG. 19)
“Either“ one dot part or one cell part ”, or each adjacent outside”
(10 in FIG. 17 and 34 in FIG. 19)
"Either of each opening of" box O "or" enclosure P "" (6 in FIG. 17 and 36 and 40 in FIG. 20),
“Either of“ inside of box O ”or“ enclosure P ”” (inside of each of 5 in FIG. 17 and 37 in FIG. 20), or
“One of the parts sandwiched between each other” (10 in FIG. 17 and 80 in FIG. 19)
Of which at least one of
"Color filters"
“Filtered light paints that maintain functions within the approximate range with color filters”
“Filtered optical membranes retaining the same function”, and
“Filtered light-transmitting substances having the same function”
At least one part or at least one of each of the above, one or more, one or more various combinations, or one or more various superpositions are installed, From the 25th or 28th one dot portion or one cell portion (2 in FIG. 17 or 34 in FIG. 19), the one dot portion or 1 cell portion (FIG. 17 2 FIG. 17). The purity of the chromaticity of 19) 34) is increased by the amount of light filtered by the color filters (10 in FIG. 17), and the impure chromaticity (visible self-luminous) other than the color filters (10 in FIG. 17). The luminescent color of the body also acts as a filter to remove the slight visible violet light from the plasma luminescence and the miscellaneous light of the impure fluorescent material. , Saturation and color It is possible to obtain beautiful visible image information signals by Yakasa. In addition, at least one of the color filters, the same filterable light paints, the same filterable light film, and the same filterable light transmitting substance as described in 35 above, It is possible to realize stereoscopic image information that can move the viewpoint and focus.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜34のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   Among the above effects, the image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to 34th aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations. It is.

36、本発明の効果を 挙げると前記第36の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図38において)
「前記第25記載」の「箱O」(図38の5)、もしくは/および、「前記第28記載」の「囲壁P」(図38の37)の各内側側壁(図38の7と39)が、同内側側壁面の少なくとも3面以上から構成されている「箱O」(図38の5)、もしくは/および、「囲壁P」(図38の37)であること
36. When the effect of the present invention is mentioned, the thirty-sixth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus is (in FIG. 38)
“Box O” (5 in FIG. 38) of “25th description” and / or each inner side wall (7 and 39 in FIG. 38) of “enclosure P” (37 in FIG. 38) of “28th description”. ) Is “box O” (5 in FIG. 38) or / and “enclosure P” (37 in FIG. 38) composed of at least three of the inner side wall surfaces.

以上のことにより、万華鏡と似た三角柱の鏡面側壁体の構造体(図38の37・19・5)を、形成するが、可能となる。 As described above, a triangular prism mirror side wall structure (37, 19 and 5 in FIG. 38) similar to the kaleidoscope can be formed.

万華鏡の鏡面側壁体は、四角柱の鏡面側壁体よりも、三角柱の鏡面側壁体(図38の37・19・5)の方が、人の視覚生体機能にとって意外な、美しい反射光パターンを、生み出すため、長年に、渡って、三角柱の鏡面側壁体を その基本型として来た。 The mirror side wall body of the kaleidoscope has a beautiful reflected light pattern that is unexpected for the human visual biological function by the mirror side wall body of the triangular prism (37, 19 and 5 in FIG. 38) than the mirror side wall body of the quadrangular column. In order to produce, for many years, a triangular prismatic side wall body has come as its basic model.

このことは、四角柱の鏡面側壁体(反射光パターンが、ピラミッド型となり、極めて簡単な1例として視点移動が、四角形運動となり、視点移動し難い)よりも、三角柱の鏡面側壁体(図38の37・19・5)の方が、人の視覚生体機能にとってまとまった半球体の美しい反射光パターン(極めて簡単な1例効果として視点移動が、円運動となり、視点移動し易い)を、長年に渡って、世人が、認めて続けて来たと言う経験則的証明事例でもある。 This is because the mirror-shaped side wall body of the triangular prism (FIG. 38) is more difficult than the mirror-shaped side wall body of the quadrangular column (the reflected light pattern is a pyramid type, and the movement of the viewpoint is a quadratic motion and is difficult to move as a very simple example). 37.19.5) has been used for many years to produce beautiful reflected light patterns of hemispheres that are organized for human visual biological functions (the movement of the viewpoint is a circular movement, making it easier to move the viewpoint as a very simple example effect) for many years. It is also an example of empirical proof that the world has acknowledged and continued.

これにより、発光光源の前後に、内側鏡面 側壁体を、対応して、設置する場合、三角柱の鏡面 側壁体(図38の37・5)の方が、人の視覚生体機能にとって、予測し難く、視点移動容易な、美しい反射光パターンを、生み出すことが、できることになる。 As a result, when the inner specular side wall body is installed correspondingly before and after the light emitting light source, the triangular side mirror side wall body (37.5 in FIG. 38) is more difficult to predict for human visual biological functions. It is possible to produce a beautiful reflected light pattern that allows easy movement of the viewpoint.

また、人工物以外の自然界は、殆ど曲線で、形成されている。曲線は、斜めの線の連続体であるため、その表示単位である1ドット部・1セル部は、曲線を多く含んでいることが、自然界の表現方法としては、より適合することになる。 In addition, the natural world other than artificial objects is almost curved. Since the curved line is a continuum of diagonal lines, it is more suitable as a representation method of the natural world that the 1 dot part and the 1 cell part as the display unit include many curves.

従って、1ドット部・1セル部は、現行の直線のみの四角柱よりも、斜めの線を含んだ三角柱の本発明の鏡面側壁体の方が、自然界の表現方法には、より適合することになる。 Therefore, the one-dot portion / one-cell portion is more suitable for the expression method of the natural world by using the triangular side wall body of the present invention, which is a triangular prism including an oblique line, than a square column having only a straight line. become.

また、人の視覚細胞は、斜めの線をダイレクトに、捕える視覚細胞単位から形成されている。従って、表示単位である1ドット部・1セル部も斜めの線を多く含んでいることが、人の視覚細胞による画像線捕捉には、より視覚生理的に適合することになる。 Human visual cells are formed from visual cell units that directly capture oblique lines. Accordingly, the fact that the 1 dot portion and 1 cell portion, which are display units, also include a large number of diagonal lines is more visually and physiologically suitable for capturing image lines by human visual cells.

従って、1ドット部・1セル部は、現行の直線のみの四角柱よりも、斜めの線を多く含んだ三角柱の本発明の鏡面側壁体の方が、人の視覚細胞にとり、より視覚生理的に捕捉し易いことになる。このことは、美しいと感じる脳細胞に、より結合し易い視覚情報となる。 Therefore, the one-dot portion / one-cell portion is more visible and physiological for the human visual cell in the case of the triangular side wall body of the present invention, which is a triangular prism containing a large number of diagonal lines, rather than the square column only of the current straight line. It will be easy to capture. This is visual information that can be more easily combined with a brain cell that feels beautiful.

また、1ドット部・1セル部が、三角柱の本発明の場合、三角柱内の1角柱別の内部付着蛍光発光体の量や長さを、各全く同じ様に付着した、三角柱の鏡面側壁体の反射光パターンと、前記反射光パターンと比較すべき、前記蛍光発光体の量や長さを、それぞれ違いを持たし、付着した三角柱の鏡面側壁体の反射光パターンの方が、より、万華鏡で得られる反射光パターン光に近くなり、万華鏡に似た、より美しい反射光パターンを 得ることが可能となる。 In addition, in the case of the present invention in which one dot portion and one cell portion are triangular prisms, a triangular prism mirror side wall body in which the amount and length of the internally attached fluorescent light emitters in each triangular prism are adhered in exactly the same manner. The amount of the fluorescent light emitter to be compared with the reflected light pattern and the length of the fluorescent light emitter to be compared with each other are different, and the reflected light pattern of the mirror-like side wall body of the attached triangular prism is more preferable than the kaleidoscope. It becomes close to the reflected light pattern light obtained in step 1, and a more beautiful reflected light pattern similar to a kaleidoscope can be obtained.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜35のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。 Among the above effects, the image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to thirty-fifth aspects, wherein the effect of the present invention is an effect of one or more and one or more various combinations. It is.

37、本発明の効果を 挙げると前記第37の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図38において)
前記第25記載の
「1画素内の1ドット部、もしくは、1セル部」(図38の三つ巴型の1つである2のRed)が、
同部内、もしくは、同部内に対応する可視自発光体類(図38の2のRed)を 直接的、もしくは、間接的に同部内で発光、もしくは、同部内を透過
(極めて簡単な代表的例として、プラズマ類であれば、蛍光体発光による同部内発光、および、同液晶類であれば、同部外バックライト類光を同部内液晶体印荷偏向による透過光)
させるための電極(プラス極とマイナス極)の計2極(図38のRedの3a・3b・3c・3d用発光電極)が、同部内に、少なくとも2極以上設置されている(図38の3a・3b・3c・3dの位置)「1画素内の1ドット部、もしくは、1セル部」(図38の2のRed)であること
以上により、図38・16において、
観察視聴者が、可視発光画像情報信号(図38の2・Redの発光蛍光体信号)に、視点・焦点を合わせた時、1ドット部、もしくは、1セル部の発光用電極(プラス極とマイナス極)2極による1箇所発光による単調な鏡面反射可視光パターン(図16の20B・20C)を、同部内の同発光用電極2極が、同部内に、少なくとも3極以上設置されている(図38の3a・3b・3c・3d用発光電極)方が、同部内発光位置の違いによる組み合わせ、もしくは、重ね合わせによる より複雑で、より変化に富む、鏡面反射可視光パターンを得ることができ(図38の3a・3b・3c・3dの様々な組み合わせ発光)、観察視聴者に取って、より複雑で、より変化に富む、美しい可視発光画像情報信号1ドット部・1セル部(図38の2・Red)の反射光パターンを 観察できることになる。
37. When the effects of the present invention are mentioned, the thirty-seventh image information three-dimensional processing apparatus or three-dimensional image information processing apparatus is (in FIG. 38)
The “one dot portion or one cell portion in one pixel” (2 Red, which is one of the triplets in FIG. 38) described in the 25th,
Visible self-luminous substances (Red in FIG. 38) corresponding to the same part or light emitted from the same part or directly within the same part, or transmitted through the same part (a very simple representative example) In the case of plasmas, in-part light emission by phosphor emission, and in the case of the same liquid crystals, external backlight light from the same part is transmitted light by deflection of liquid crystal in the same part)
At least two or more electrodes (red electrodes 3a, 3b, 3c, and 3d of Red in FIG. 38) are installed in the same portion (positive and negative electrodes) (FIG. 38). 3a, 3b, 3c, and 3d) “1 dot portion in one pixel, or 1 cell portion” (Red in FIG. 38 2).
When the viewer / viewer puts the viewpoint / focus on the visible light emitting image information signal (2.Red light emitting phosphor signal in FIG. 38), the light emitting electrodes (plus and Minus pole) Monocular specular reflection visible light pattern (20B / 20C in FIG. 16) by one-point light emission by two poles, and two or more electrodes for light emission in the same part are installed in the same part. (Light emitting electrodes for 3a, 3b, 3c, and 3d in FIG. 38) can obtain a more complex and more varied specular reflection visible light pattern by combining or overlapping the light emission positions in the same part. (3a, 3b, 3c, and 3d in FIG. 38), which is more complicated and more varied for the viewing viewer, and a beautiful visible light emitting image information signal 1 dot portion 1 cell portion (see FIG. 38). 38 2 ・Red) reflected light pattern can be observed.

また、前記第30、36、および、37複合体(図38全体)の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、
前記第36で得られる、三面鏡(図38の「三角柱型箱Oの5の7」と「三角柱型囲壁Pの37の39」)による万華鏡に似た、より美しい反射光パターンを 得ることが可能となることに加え、
前記第30で得られる3ドット、もしくは、3セル(図38の3個の2のRedとBlueとGreen)を1三面鏡単位(図38の「三角柱型箱Oの5の7」と「三角柱型囲壁Pの37の39」)で形成し、1三面鏡単位(図38の5と37)で 1画素(図38の19)とすることにより、1画素単位別(図38の19)の三面鏡を形成すること(図38の5と37と19)ができ、1画素内の赤色用輝度発光(図38の2のRed)・青色用輝度発光(図38の2のBlue)・緑色用輝度発光(図38の2のGreen)を それぞれ割り振り、各1ドット部、もしくは、同1セル部(図38の「2のRed」と「2のBlue」と「2のGreen」)とすることができることになる。
In addition, the image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus of the thirtieth, thirty-sixth, thirty-sixth, and thirty-seventh complexes (the entire FIG. 38)
It is possible to obtain a more beautiful reflected light pattern similar to the kaleidoscope obtained by the thirty-sixth thirty-six mirrors (“triangular prism-shaped box O 5-7” and “triangular prism-shaped enclosure P 37 39” in FIG. 38). In addition to being possible,
The three dots or three cells (three 2 Red, Blue, and Green in FIG. 38) obtained in the 30th are made into one trihedral mirror unit (“triangular prism box O 5-7” in FIG. 37 ”of the mold wall P” and one pixel (19 in FIG. 38) by one trihedral mirror unit (5 and 37 in FIG. 38). A trihedral mirror can be formed (5, 37 and 19 in FIG. 38), and luminance emission for red in one pixel (Red in FIG. 38), luminance emission for blue (Blue in FIG. 38), green Luminance emission (2 Green in FIG. 38) is allocated to each one dot portion or the same cell portion (“Red 2”, “Blue 2” and “Green 2” in FIG. 38). Will be able to.

さらに、赤色用輝度発光(図38の2のRed)・青色用輝度発光(図38の2のBlue)・緑色用輝度発光(図38の2のGreen)のいずれかで形成される各1ドット部、もしくは、1セル部(図38の「2のRed」と「2のBlue」と「2のGreen」)は、前記第37で得られる、少なくとも電極3極以上の設置(図38のRedの3a・3b・3c・3d用発光電極)により、同部内輝度発光部位置を1ヶ所(図16の20Aの69・20Bの69・20Cの69)以上設定実施できることになる。 Further, each dot formed by any one of red luminance emission (Red in FIG. 38), blue luminance emission (Blue in FIG. 38), and green luminance emission (Green in FIG. 38 2). Part or one cell part ("Red of 2", "Blue of 2" and "Green of 2" in FIG. 38) is provided in the 37th, and has at least three electrodes or more (Red in FIG. 38). The light emitting electrodes for 3a, 3b, 3c, and 3d) can be set at one or more locations (69 of 20A, 69 of 20B, 69 of 20C of 69 in FIG. 16).

この同部内輝度発光部位置1ヶ所以上設定実施による輝度発光(図38のRedの3a・3b・3c・3dの発光)は、時間差を持たして順次・同時・不順のいずれかで輝度発光(図38のRedの3a・3b・3c・3dの発光)することにより、様々な輝度発光パターン(図38の3a・3b・3c・3dの内1以上の様々な組み合わせによる発光パターン)を 作り出すことができることになる。 Luminance emission (red emission of 3a, 3b, 3c, and 3d of Red in FIG. 38) by setting one or more positions in the same luminance emission portion is performed with a time difference in any order, simultaneous, irregular ( By generating red 3a, 3b, 3c, and 3d of Red in FIG. 38, various luminance light emission patterns (light emission patterns by various combinations of one or more of 3a, 3b, 3c, and 3d in FIG. 38) are created. Will be able to.

此処での輝度発光の時間差は、「通常画面表示の時間差」〜「観察者が輝度発光部位置の変化を認識し美しいと感じる時間差」までの範囲で、設定できる。 Here, the time difference of luminance emission can be set in a range from “time difference of normal screen display” to “time difference in which the observer recognizes the change in the position of the luminance light emission part and feels beautiful”.

また、此処での輝度発光(図38の3a・3b・3c・3dの各輝度)の輝度の度合いは、通常画面表示の輝度発光度合いに加え、更に、小分けされた同部内輝度発光部位置の輝度発光部面積(図38の3aと直近66迄の可視光発光面積・3bと直近66迄の可視光発光面積・3cと直近66迄の可視光発光面積・3dと直近66迄の可視光発光面積)に応じた様々な表示発光度合いを設定することにより、輝度発光度合い表示(図38の3aにおける可視光発光度合い別表示・3bにおける可視光発光度合い別表示・3cにおける可視光発光度合い別表示・3dにおける可視光発光度合い別表示)を 自由様々に別表示できることになる。 In addition, the luminance level of the luminance emission (each luminance of 3a, 3b, 3c, and 3d in FIG. 38) in addition to the luminance emission level of the normal screen display is further divided into the sub-internal luminance emission unit positions. Luminance light emitting area (3a in FIG. 38 and visible light emitting area up to the nearest 66. 3b and visible light emitting area up to the nearest 66. 3c and visible light emitting area up to the nearest 66. 3d and visible light emitting up to the nearest 66. By setting various display light emission levels in accordance with the area, display of luminance light emission levels (display according to visible light emission level in 3a in FIG. 38, display according to visible light emission level in 3b, display according to visible light emission level in 3c)・ Display according to the degree of visible light emission in 3d).

また、一般的に、総輝度発光情報量(図38の2のRedの光量総和)=輝度発光部面積(図38の3a・3b・3c・3dの各位置別可視光発光面積の和)×輝度発光度合い(図38の3a・3b・3c・3dの可視光発光度合い別表示の和)である。 Also, generally, the total luminance light emission information amount (total amount of red light of 2 in FIG. 38) = luminance light emission area (sum of visible light emission areas for each position of 3a, 3b, 3c, and 3d in FIG. 38) × This is the luminance emission level (the sum of the display by 3a, 3b, 3c, and 3d of the visible light emission level in FIG. 38).

従って、同部内の赤色用輝度発光(図38の2のRed)・青色用輝度発光(図38の2のBlue)・緑色用輝度発光(図38の2のGreen)のいずれかで形成される予定の原画像情報の各輝度発光情報は、
この未表示輝度発光情報が、要求している未表示総輝度発光情報量と同じになるよう、
小分けされた同部内輝度発光部位置(図38の3a・3b・3c・3dの各位置)ごとに、同位置(図38の3a・3b・3c・3dの各位置)での
輝度発光部面積(図38の3a・3b・3c・3dの各位置別可視光発光面積)に応じた
輝度発光度合い(図38の3a・3b・3c・3dの可視光発光度合い別表示)
を自由様々に調整し
設定表示発光(図38の3a・3b・3c・3dの可視光発光表示)することにより、
前記未表示総輝度発光情報量と同じ総輝度発光情報量(図38の2のRedの光量総和)を、
同小分けされた発光部位置(図38の3a・3b・3c・3dの各位置)ごとに、
順次表示発光しながら、
様々な大きさの面積(図38の3a・3b・3c・3dの各位置別可視光発光面積)を持つ
小分けされた同部内輝度発光部位置(図38の3a・3b・3c・3dの各位置)を
時間差で、移動、もしくは、変化しながら
(図38の3a・3b・3c・3dの内1以上とその様々な組み合わせによる発光パターン)、
同じ総輝度発光情報量(図38の2のRedの光量総和)を確保しつつ
輝度発光対応できることになる。
Therefore, it is formed by any one of red luminance emission (Red in FIG. 38), blue luminance emission (Blue in FIG. 38), and green luminance emission (Green in FIG. 38) in the same part. Each brightness emission information of the scheduled original image information is
This undisplayed luminance light emission information is the same as the requested undisplayed total luminance light emission information amount.
The luminance light emitting area at the same position (3a, 3b, 3c, and 3d positions in FIG. 38) for each subdivided luminance light emitting section position (the positions 3a, 3b, 3c, and 3d in FIG. 38). Luminance emission level according to (visible light emission area for each position of 3a, 3b, 3c, and 3d in FIG. 38) (display according to visible light emission level of 3a, 3b, 3c, and 3d in FIG. 38)
By freely adjusting and setting display emission (visible light emission display of 3a, 3b, 3c and 3d in FIG. 38),
The same total luminance light emission information amount as the undisplayed total luminance light emission information amount (Red light amount sum of 2 in FIG. 38),
For each of the light emitting unit positions (3a, 3b, 3c, and 3d in FIG. 38),
While sequentially displaying and emitting light,
Subdivided luminance light emitting portion positions (3a, 3b, 3c, and 3d in FIG. 38) having various sizes of areas (visible light emitting areas by positions 3a, 3b, 3c, and 3d in FIG. 38). (Position) by time difference, moving or changing (light emission pattern by one or more of 3a, 3b, 3c and 3d in FIG. 38 and various combinations thereof),
Luminance emission can be handled while ensuring the same total luminance emission information amount (the total amount of red light of 2 in FIG. 38).

この場合、各時間差別の
「原画像情報が 要求している未表示総輝度発光情報量」と
「小分けされた同部内輝度発光部位置別の既表示総輝度発光情報量」(図38の2のRedの光量総和)は、
同じ輝度光情報量に、設定できるため、原画像情報の各輝度発光情報を、損なうことなく、従来表示装置に比べ、
輝度発光面積(図38の3a・3b・3c・3dの各位置別可視光発光面積)を
時間差で、多様に変え、かつ、同様に、
位置(図38の3a・3b・3c・3dの各位置)を
時間差で、多様に移動変化できることが、可能となる。
In this case, “undisplayed total luminance light emission information amount requested by the original image information” for each time discrimination and “displayed total luminance light emission information amount for each in-part luminance light emission unit position” (2 in FIG. 38). The total amount of red light)
Since it can be set to the same amount of luminance light information, each luminance light emission information of the original image information, without losing, compared to the conventional display device,
Luminance emission area (visible light emission area for each position of 3a, 3b, 3c and 3d in FIG. 38)
Change with time difference, and variously,
It is possible to move and change the positions (positions 3a, 3b, 3c, and 3d in FIG. 38) with a time difference.

以上述べた、前記第30、36、および、37複合体(図38全体)の画像情報立体化処理装置、もしくは、立体画像情報処理装置では、原画像情報の各輝度発光情報を、損なうことなく、1画素内の小分けされた輝度発光模様の形(=輝度発光面積)
(図38の3a・3b・3c・3dの各位置別可視光発光面積)
と小分けされた位置(図38の3a・3b・3c・3dの各位置)を
時間差で、多様に組み合わせ、および、多様に移動変化しながら表示できることになる。
In the image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus of the thirtieth, thirty-sixth, and thirty-seventh complexes (the entire FIG. 38) or the three-dimensional image information processing apparatus described above, each luminance emission information of the original image information is not impaired. 1 shape of luminance light emission pattern divided into one pixel (= luminance light emission area)
(Visible light emission areas according to positions 3a, 3b, 3c and 3d in FIG. 38)
The positions (3a, 3b, 3c, and 3d in FIG. 38) can be displayed in various combinations with various time differences and various movements and changes.

従って、前記第36で得られる、三面鏡による万華鏡に似た、美しい反射光パターンと比較しても、該三面鏡による万華鏡を、くるくる廻して、その紋様が、変化移動して行く模様を 覗いている様な
(図38の3a・3b・3c・3dの内1以上とその様々な組み合わせによる発光パターン)、より万華鏡機能に近づけ、その機能から生み出される美しさを引き出した、より美しい反射光パターン
(図38の3a・3b・3c・3dの内1以上とその様々な組み合わせによる発光パターン)、を 得ることが可能となる。
Therefore, even when compared with the beautiful reflected light pattern similar to the kaleidoscope with the trihedral mirror obtained in the thirty-sixth, look around the pattern of the pattern changing and moving around the kaleidoscope with the trihedral mirror. (Light emission patterns by one or more of 3a, 3b, 3c, and 3d in Fig. 38 and various combinations thereof), more beautiful reflected light that draws out the beauty produced by that function, closer to the kaleidoscope function It is possible to obtain a pattern (one or more of 3a, 3b, 3c and 3d in FIG. 38 and various combinations thereof).

このより美しい反射光パターン(図38の3a・3b・3c・3dの内1以上とその様々な組み合わせによる発光パターン)は、原画像情報を、損なうことなく、画像情報表示しているため、1画素情報が、大きく荒くなる大画面表示になるに連れ、その有用性が、より増す効果も生み出すことになる。 Since this more beautiful reflected light pattern (light emission pattern by one or more of 3a, 3b, 3c, and 3d in FIG. 38 and various combinations thereof) displays the original image information without damaging the image information, 1 As the pixel information becomes a large screen display that becomes large and rough, the usefulness of the pixel information also increases.

また、静止画像情報において、その美しさが、従来表示方法より、飽きが来ない深み・動きのある静止画像情報として、よくその違いが理解出来るため、印象派時代の画家達の精神を受け継ぎ、その精神を 他の全ての名絵画静止画像情報上で、再現表示が、可能となる効果があることに、なると思われる。 In still image information, the beauty of the image can be understood as a still image information with depth and movement that will not get bored compared to conventional display methods, so it inherits the spirit of painters in the impressionist era, It seems that there is an effect that the spirit can be reproduced and displayed on all other still pictures of famous pictures.

また、図38の三つ巴紋様の曲線は、直線で、設計表現することにより、画像情報表示画面部分を、より製造し易くなると思われる。 Further, the three-sided pattern in FIG. 38 is a straight line, and it is considered that the image information display screen portion can be more easily manufactured by design expression.

以上の効果の内、1以上と同1以上の様々な組み合わせによる効果を 本発明の効果とする前記第1〜36のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。   The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to thirty-sixth aspects, wherein the effect of the present invention is an effect of various combinations of one or more and one or more of the above effects. It is.

38、本発明の効果を 挙げると前記第38の画像情報立体化処理装置、もしくは、立体画像情報処理装置は、(図38において)
前記第25、もしくは、前記第28記載の
「1画素部」(図38の19)の記載部分が、
「1以上のいずれかのドット部、もしくは、同1以上のいずれかのセル部からなる
1画素部」(図38の19と「3個の2」の「各Red・Blue・Green」)
に変更記載されていること
により、
従来の1画素3ドット部、もしくは、同3セル部の画素部よりも、多彩な輝度変化を、作り出すことになり、そのことは、「囲壁Pや箱O」(図38の37・5)の内側鏡面の反射パターンに、予測し難い、変化パターンを、生み出すことに、繋がって行くことになることが、可能となる。
38. When the effect of the present invention is given, the thirty-eighth image information three-dimensional processing apparatus or three-dimensional image information processing apparatus is (in FIG. 38)
The description part of "25th or 28th""1 pixel part" (19 in FIG. 38)
“One pixel portion consisting of one or more dot portions or one or more cell portions” (“Red, Blue, Green” of 19 and “three 2” in FIG. 38)
Because the change is described in
A variety of brightness changes can be produced as compared with the conventional one pixel 3 dot portion or the pixel portion of the same 3 cell portion. It is possible to be connected to the creation of a change pattern that is difficult to predict in the reflection pattern of the inner mirror surface.

この効果を 本発明の効果とする前記第1〜37のいずれかに記載の 画像情報立体化処理装置、もしくは、立体画像情報処理装置である。 The image information three-dimensional processing apparatus or the three-dimensional image information processing apparatus according to any one of the first to 37, in which this effect is an effect of the present invention.

発明を実施するための最良の形態を、説明すると、 The best mode for carrying out the invention will be described.

以下、本命明細書の図面(極めて簡単な1例としての各図)の中から参照して、各々個別に 説明する。   In the following, each will be described individually with reference to the drawings of the present specification (each figure as a very simple example).

〔課題を解決するための手段〕第1に記載の「両形融合画像情報による上下両離輻輳融合画像情報」を、同図をもちいて、説明すると、
図2は、
公知技術の両組融合画像情報dの上に、それより小さな公知技術の両形融合画像情報bを、重ね合わせて生成した、生成過程を表している。
[Means for Solving the Problems] The “upper and lower deconvergence fusion image information based on the bilateral fusion image information” described in the first item will be described with reference to FIG.
FIG.
This shows a generation process in which the both-form fusion image information b of the known technology smaller than that is superimposed on the both-set fusion image information d of the known technology.

詳細すると、図2は、
四角錐を真上から見た平面画像情報の基本画像情報から、公知技術の両組融合画像情報が起き、結果、『飛び出す立体画像情報である「空間突出度画像情報」』が、得られる2組の「2つを組んだ形像系画像情報」C、Dである。(以下、この2組の「組形像系画像情報」を 各々「背景C」、同「背景D」と呼称する。)
In detail, FIG.
From the basic image information of the planar image information when the quadrangular pyramid is viewed from directly above, both sets of fused image information of known technology occurs, and as a result, “spatial protrusion image information that is stereoscopic image information that pops out” is obtained 2 A set of “image information of two images” C and D. (Hereinafter, these two sets of “composite image system image information” will be referred to as “background C” and “background D”, respectively.)

A、Bは、「背景C」、同「背景D」よりも小さな四角錐を真上から見た平面画像情報の基本画像情報から、公知技術の両形融合画像情報が起き、結果、『奥まって見える立体画像情報である「空間深度画像情報」』が得られる素の平面画像情報の「大形像系画像情報」A、同「小形像系画像情報」Bである。(以下、この 「大形像系画像情報」を「大A」、同「小形像系画像情報」を「小B」と呼称する。) In A and B, the basic image information of the planar image information obtained by viewing a square pyramid smaller than “Background C” and “Background D” from above, the known bimodal fusion image information occurs. As a result, “Large image system image information” A and “Small image system image information” B of the plain planar image information from which “spatial depth image information” that is stereoscopic image information that can be seen is obtained. (Hereinafter, the “large image system image information” is referred to as “large A”, and the “small image system image information” is referred to as “small B”.)

「背景C」、「背景D」間の融合範囲は、最大融合範囲Zとなっている。 The fusion range between “background C” and “background D” is the maximum fusion range Z.

「大A」、「小B」間の融合範囲も、最大融合範囲Zとなっている。 The fusion range between “Large A” and “Small B” is also the maximum fusion range Z.

「背景C」、「背景D」は、同一大の大きさであり、これより生み出された「両組融合画像情報」であり、立体画像情報である「空間突出度画像情報」dも、「背景C」、「背景D」と、同一大の大きさとなる。 “Background C” and “Background D” have the same size, are “Both-set fusion image information” generated from this, and “Spatial protrusion degree image information” d which is stereoscopic image information is also “ It is the same size as “Background C” and “Background D”.

「大A」、「小B」は、その各画像情報の中心線ATとBTが、「背景C」、「背景D」上の中心線CTとDTと相重なり、中心線同士が、重なり中心線ATと中心線CT、中心線BTと中心線DTが、一致するように張り合わせてある。  “Large A” and “Small B” indicate that the center lines AT and BT of each image information overlap with the center lines CT and DT on the “background C” and “background D”, and the center lines overlap with each other. The line AT and the center line CT, and the center line BT and the center line DT are bonded to each other.

この一致により、「背景C」、「背景D」間では、最大「空間突出度画像情報」dと、「大A」、「小B」間では、最大「空間深度画像情報」bが、形成できている。 Due to this coincidence, the maximum “spatial protrusion image information” d is formed between “background C” and “background D”, and the maximum “spatial depth image information” b is formed between “large A” and “small B”. is made of.

この最大「空間突出度画像情報」dと、最大「空間深度画像情報」bとは、同一空間内に有るため、この空間内の想定表示面より突出した大きなピラミッドd中に、同一の想定表示面より奥まったピラミッド型小さな窪みbが、奥下の方に見えることになる。 Since the maximum “spatial protrusion image information” d and the maximum “spatial depth image information” b are in the same space, the same assumed display is displayed in the large pyramid d protruding from the assumed display surface in this space. A small pyramid-shaped dent b deeper than the surface is visible in the lower part.

この2つのピラミッドb・dは、最大融合範囲Zから、生み出されているため、これ以上の「空間突出度画像情報」「空間深度画像情報」を、形成できない。 Since these two pyramids b · d are generated from the maximum fusion range Z, no more “spatial protrusion degree image information” or “spatial depth image information” can be formed.

図1は、
図2と同一の構成要因で、構成されている。
図2との違いは、「大A」、「小B」が、その各画像情報の中心線ATとBTの、「背景C」、「背景D」上の中心線CTとDTと相重なり、中心線同士が、重なり 中心線ATと中心線CT、中心線BTと中心線DTが、一致するように張り合わせず、
「大A」、「小B」が、各画像情報の中心線ATとBTが、「背景C」、「背景D」上の中心線CTとDTと相重ならず、中心線ATを中心線CTより、左に少しずらして、張り合あわせ、中心線BTは、中心線DTより、右に少しずらして張り合わせている。
FIG.
It is comprised by the same component factor as FIG.
The difference from FIG. 2 is that “large A” and “small B” overlap the center lines CT and DT on the “background C” and “background D” of the center lines AT and BT of the respective image information, The center lines overlap, and the center line AT and the center line CT, and the center line BT and the center line DT are not pasted so that they match,
“Large A” and “Small B” indicate that the center lines AT and BT of each image information do not overlap with the center lines CT and DT on “Background C” and “Background D”, and the center line AT is the center line. The CT and the center line BT are slightly shifted to the right from the center line DT.

この左右のずれにより、「背景C」、「背景D」間では、最大「空間突出度画像情報」dが、形成され、「大A」、「小B」間では、最大融合範囲を越えているため、図2の場合のような両形融合画像情報は、起こらず、結果、「空間深度画像情報」図2のbは、形成できない。   Due to this left / right shift, a maximum “spatial protrusion image information” d is formed between “background C” and “background D”, and the maximum fusion range is exceeded between “large A” and “small B”. 2 does not occur, and as a result, “spatial depth image information” b in FIG. 2 cannot be formed.

しかし、人の視中枢内には、公開特許公報特開平8ー101469「平面画像情報を立体画像情報昇華する処理関連物および該製造方法」に掲載されている視中枢内の「連携伸縮機能による左右視差創造機能」以外に、視中枢内に、別の機能として、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この別の機能の働きににより、先天・後天に、視中枢内に 蓄積されている輻輳用画像情報群内の「大A」、「小B」画像情報と、外界の図2紙面上の「大A」、「小B」画像情報との、検索照合が、なされ、未輻輳融合画像情報状態(=両形融合画像情報できない未融合画像情報a内の「大A」、「小B」画像情報)と
他の条件
《1、左右眼球が、輻輳融合画像情報運動を開始しているという生態機能開始・同運動
中の眼球視神経生理信号。
2、左右眼球から、送られてくる輻輳角を伴った時に、生じる左右重なった画像情報
が、視中枢内の左右輻輳角、重なり画像情報と、検索・照合されること。
3、他の画像情報、(この例では、「背景C」、「背景D」間では、『両組融合画像情報に
より、「空間突出度画像情報」dの「背景C」、「背景D」間の形成』)、により、他
の「空間画像情報」が、既に確定し、既存の確定した空間が、存在していると認
識されること。》
との総合判断により、この未融合画像情報a内の「大A」、「小B」画像情報が、既に確定している『「背景C」、「背景D」間の「空間突出度画像情報」dの「空間画像情報」』より、どれだけ、手前にある空間か、もしくは、前記「空間画像情報」dより奥の方の空間かが、即座に判断され、両組融合画像情報と輻輳融合画像情報が、両立・共存した、両離輻輳融合画像情報が、形成されることになり、最大「空間突出度画像情報」dを背景として、その上空に同空間内の想定表示面より奥まった「空間深度画像情報」bbが、形成されることになる。
However, in the human visual center, there is a “cooperative expansion / contraction function” in the visual center described in Japanese Patent Application Laid-Open No. Hei 8-101469 “Processing Related Substance for Sublimating Planar Image Information and its Manufacturing Method”. In addition to the “right-and-left parallax creation function”, there appears to be another “convergence right-and-left parallax creation function that superimposes and merges the moving gazing point image information with the fixed fusion image information” in the visual center. Therefore, by the function of this other function, the “Large A” and “Small B” image information in the converging image information group accumulated in the visual center in the congenital and acquired areas, and the outside of FIG. The above “Large A” and “Small B” image information is searched and collated, and the uncongested fused image information state (= “Large A”, “Small” in the unfused image information a that cannot be the bimodal fused image information) B ”image information) and other conditions << 1, left and right eyeballs converge Eyeball the optic nerve physiological signal in the ecological function start and the same movement that has started the image information movement.
2. The left and right overlapping image information generated when the left and right eyeballs are accompanied by the convergence angle to be searched and collated with the left and right convergence angle and overlapping image information in the visual center.
3. Other image information (in this example, between “background C” and “background D”, “background C”, “background D “Formation between”), other “spatial image information” has already been confirmed, and the existing confirmed space is recognized to exist. >>
The “large A” and “small B” image information in the unfused image information a is already determined as “spatial protrusion degree image information between“ background C ”and“ background D ”. From “spatial image information” of “d”, it is immediately determined how much space is in front or the space behind “spatial image information” d. Both deconvergence fusion image information, in which the fusion image information is compatible and coexisting, will be formed, and with the maximum “space projection image information” d as the background, it will be deeper than the assumed display surface in the same space The “spatial depth image information” bb is formed.

つまり、飛び出た大きなピラミッド上空dに、同想定表示面よりピラミッド側に窪んだ、小さなピラミッド型窪みbbが、見えることになる。   That is, a small pyramid-shaped depression bb that is depressed toward the pyramid side from the assumed display surface can be seen in the sky d above the large pyramid.

前記「大A」、「小B」間の左右のずれを、さらに、広げて左右にずらすと、前記上空dより、さらに、上空の想定表示面よりピラミッド側に窪んだ、小さなピラミッド型窪みbbが、見えることになる。 When the lateral displacement between the “large A” and “small B” is further widened and shifted to the left and right, a small pyramid-shaped depression bb that is recessed toward the pyramid side from the above-mentioned sky d and further from the assumed display surface above the sky. Will be visible.

この連続した誘導表示を重ねながら、「大A」、「小B」間の左右のずれを徐々に、広げていくことにより、ピラミッド側に窪んだ、小さなピラミッド型窪みbbが、目前まで、迫って見える位置にまで、輻輳融合画像情報視点を導くことが、可能となる。 While overlapping this continuous guidance display, the left and right shifts between “Large A” and “Small B” are gradually widened, so that a small pyramid-shaped depression bb that is depressed toward the pyramid side is imminent. It is possible to guide the convergence fusion image information viewpoint to the position where it can be seen.

また、前記左右のずれを徐々に、広げていくとき、「大A」、「小B」自身を、徐々に横、もしく、縦横均等に、拡大していくことにより、前記より、さらに、現実味のある目前まで、迫る、輻輳融合画像情報bbの視点誘導となる。   Further, when gradually widening the left and right shifts, the “large A” and “small B” themselves are gradually expanded horizontally, or evenly vertically and horizontally to further increase the above, The point-of-view guidance of the convergence fusion image information bb is approaching to the point of reality.

また、これとは、逆に、「大A」、「小B」間の左右のずれを徐々に、狭めていくことにより、図2と、同じ状態となり、さらに、「大A」、「小B」間の最大「空間深度画像情報」の最大値を、0値にすれば、平面画像情報の小さな四角錘に、戻ることになる。   On the contrary, by gradually narrowing the left-right shift between “large A” and “small B”, the same state as in FIG. 2 is obtained, and further, “large A”, “small” If the maximum value of the maximum “spatial depth image information” between “B” is set to 0 value, it returns to a square pyramid with small plane image information.

この大きなピラミッドdと 小さなピラミッド型窪みbbは、内界の視中枢内、融合画像情報と輻輳融融合画像情報形成による融合画像情報・輻輳融合画像情報dとbbであり、外界の、大・小の各平面図面・紙面上の描かれた平面四角錐では、ない。  The large pyramid d and the small pyramid-shaped depression bb are the fusion image information and the convergence fusion image information d and bb formed by the fusion image information and the convergence fusion image information formation in the inner visual center. It is not a flat quadrangular pyramid drawn on paper.

また、この小さなピラミッド型窪みbbに、焦点・視点を 移すと、大きなピラミッドdは、横方向に、若干 少し遅れて伸張するが、焦点・視点が、小さなピラミッド型窪みbbに、集中しているため、殆ど、問題にならない。   When the focus / viewpoint is moved to this small pyramid-shaped depression bb, the large pyramid d extends in the lateral direction with a slight delay, but the focus / viewpoint is concentrated in the small pyramid-shaped depression bb. Therefore, it is hardly a problem.

つまり、内界の視中枢内輻輳画像情報形成による融合画像情報と輻輳融融合画像情報は、焦点・視点移動作業と移動位置信号、および、個々の焦点・視点画像情報 に対応して、視中枢内融合画像情報全体を、その変化の度に、対応して、形成し直していると、思われる。  In other words, the fusion image information and the convergence fusion image information by the formation of the convergence image information in the visual center of the inner world correspond to the focus / viewpoint movement work and the movement position signal, and the individual focus / viewpoint image information. It seems that the entire inner fused image information has been re-formed corresponding to each change.

つまり、観察視聴者は、目を開け、焦点・視点移動を 外界の、大・小の各平面四角錐図面紙上内に、置いて、見ているのにも関わらず、内界の視中枢内では、眼球全体から送られてくる画像情報により、対応した視中枢内融合画像情報と輻輳融合画像情報とが、まず、形成され、次の個々の焦点・視点移動画像情報に対応して、次に生まれる視中枢内個々の融合画像情報と輻輳融合画像情報を、その都度重ねあわせ、画像情報全体をその都度形成し直していることになる。 In other words, the viewer / viewer opens his eyes and places his / her focus / viewpoint movement on the large and small flat square pyramid drawings on the outside world. Then, based on the image information sent from the entire eyeball, the corresponding visual center fusion image information and the convergence fusion image information are formed first, and the next individual focus / viewpoint moving image information is corresponded to the next. Thus, the individual fusion image information and the convergence fusion image information in the visual center born in the above are superimposed each time, and the entire image information is recreated each time.

我々の意識では、焦点・視点のみで、事足りるが、視覚生態機能にとっては、焦点・視点のみでは事足りず、画像情報全体を見渡す「全体視点」とも言ううべきものが、必要であり、かつ、存在していると思われる。   In our consciousness, only the focus / viewpoint is sufficient, but for the visual ecological function, the focus / viewpoint is not enough, and what should be called the “overall view” overlooking the entire image information is necessary, and It seems to exist.

つまり、観察視聴者は、目を開け、外界を 見ていながら、視覚生態機能の「全体視点」により造りだされた、内界に、広がる融合画像情報と輻輳融合画像情報ビジョンの中で、意識できる個々の焦点・視点を 移動させて、内界における個々の焦点・視点融合画像情報と輻輳融合画像情報が、重ね合った再形成融合画像情報と同輻輳融合画像情報ビジョンを、楽しんでいることになる。   In other words, the viewers are aware of the fusion image information and the convergence image information vision that are created by the “whole viewpoint” of the visual ecology function while opening their eyes and looking at the outside world. Each focus / viewpoint that can be moved is moved, and the individual focus / viewpoint fusion image information and the convergence fusion image information in the inner world are enjoying the reconstructed fusion image information and the convergence convergence image information vision that overlap. become.

このことから、内界の、視覚生態機能が、内界通信手段であるテレパシーという、通信ネットワークと、繋がれば、別の内界ビジョンを作り出し、内観することは、充分可能な能力を、人は、備えていると、思われる。   For this reason, if the visual ecological function of the inner world is connected to the telepathy, a telepathy that is a means of communication within the inner world, then creating a different inner vision and introspecting it is possible for humans Seems to be equipped.

350年前の江戸時代の秀でた蘭学者に、電波通信を、説明しても、「そんなオトギバナシみたいなもの、我々の最高西洋蘭学の原理と知識・観察力を持って判断しても、有るはずが御座いません、な。」と 一蹴されている姿と、今日の唯物論者である物理学の天才に、内界通信手段であるテレパシーという、通信ネットワークを説明している事と、50歩100歩である。(『必要構成要素は、本質的機能面では、同じだが、原理が異なる』だけである、以下、物事の構成要素集約類似性と呼称する。)   Explaining radio communications to the outstanding Dutch scholars of the Edo period 350 years ago, "Even if you judge with the principles, knowledge and observation of our best Western Dutch studies, It ’s not supposed to be, ”he explained,“ Today ’s materialist, the physics genius, explaining telepathy, a communication network inside, to the physics genius. There are 100 steps. (Necessary components are essentially the same in terms of functionality but differ in principle. Hereafter, they will be referred to as component aggregate similarity of things.)

肉体があれば、心体が有り、心体が有れば、魂体が有ると思われ、歴史内で伝承され続けられている。音は、肉体の耳の奥で、鳴り響き渡り、心の声は、胸から喉の間を主とする奥、および、時として小腸の奥で、低音で鳴り響き渡る。そこには、肉体の鼓膜は、存在しない、が、心体の声帯と舌、および、鼓膜が存在することが、理解できる。何故ならば、物理の原理による音響機器で、耳の奥で、鳴り響き渡らすことは、できても、胸から喉の間を主とする奥、および、時として小腸の奥で、鳴り響き渡らすことができる音響機器は、いまだ存在しない。鳴り響き渡らす原理が、異なる訳である。(物事の構成要素集約類似性) If there is a body, there is a mind body, and if there is a mind body, it seems that there is a soul body, and it has been handed down in history. The sound reverberates in the depths of the body's ears, and the voice of the heart resonates in the bass, mainly in the back between the chest and throat, and sometimes in the back of the small intestine. It can be seen that there is no physical tympanic membrane, but there are the heart's vocal cords and tongue, and the tympanic membrane. This is because, with an acoustic device based on the principle of physics, it is possible to reverberate in the back of the ear, even if possible, reverberating mainly between the chest and throat, and sometimes in the back of the small intestine. There is still no audio equipment that can do this. The principle of reverberation is different. (Similarity to the aggregation of components of things)

また、脳自身も、我々の内界を、自然界と一致した再現に、平常時 忠実に努め、感応点、感応機能を、勝手な場所、勝手な機能再現で、造りだすことは、極めて考え難い。従って、何らかの、感応点、感応機能が、胸から喉の間を主とする奥、および、時として小腸の奥に、存在していることに行き着く。肉体的には、その様なものが存在していない以上、未だ、未発見の声帯と舌、および、鼓膜の感応点と同機能反応を生み出している「未発見物」と言うことになり、その「未発見物」を、「心体」(後述するアダム脳心体・イブ脳心体・ヘビ脳心体参照)という呼称で、別称し、その異なる存在を認めざるを得ない。 In addition, it is extremely difficult for the brain itself to make our inner world faithfully in the same way as the natural world, and to create sensitive points and sensitive functions in arbitrary locations and arbitrary functions. . Therefore, it comes to the fact that some sensitive points and sensitive functions exist in the back mainly between the chest and throat, and sometimes in the back of the small intestine. Physically, as long as there is no such thing, it is still an “undiscovered object” that produces the same functional response as the undetected vocal cords and tongue, and the sensitive point of the eardrum, The “undiscovered thing” is referred to as “heart body” (refer to Adam brain body, Eve brain body, and snake brain body, which will be described later).

このことにより、別の未発見原理により、心体同士の通信が、可能と言うことであり、この別の同原理発見の時、音は、胸から喉の間を主とする奥、および、時として小腸の奥で、鳴り響き渡り、交信されることになる、と思われ、この21世紀以降型通信手段を実現する第2のグラハム・ベル氏、トーマス・エジソン氏等の出現を、望むものである。 This means that it is possible to communicate between the mind and body according to another undiscovered principle, and at the time of this another discovery of the same principle, the sound is mainly from the chest to the throat, and It seems that sometimes it will be reverberated and communicated in the back of the small intestine, and it is hoped that the second Graham Bell, Thomas Edison, etc. who will realize the means of communication after this 21st century will appear. .

先祖の仏壇・お墓に、手を合わせることとは、音・音以外の無音情報交換による内界通信手段による日常的交信と思われる。   Hands on the ancestral Buddhist altars and graves seems to be a daily communication by means of internal communication by exchanging silent information other than sound and sound.

また、配線は、不要と思われる。何故ならば、様々な未理解で多数の既知事例から、既に配線は、繋ぎ終わっていると思われる。時間は必要であるが、空間および距離の制約を受けていない多くの既知事例が、そのことを 証明していると思われる。 Also, wiring seems unnecessary. This is because the wiring is already connected from various unknown and many known cases. Many known cases that need time but are not constrained by space and distance appear to prove this.

つまり、インターネット配線の通信手段で、アドレスを 打ち込んで、目的とする情報に、到達できる様に、対象とする情報には、全てアドレスに該当するものが、既に付けられており、この名前・イメージ・特性と、同情報の前記心体が、発する言葉による 祈り・無音の祈り(心体エネルギーの1箇所への集中行為=出力行為)により、内界通信手段では、前記情報へ、到達できるものと思われる。 In other words, all the information that corresponds to the address has already been assigned so that the target information can be reached by entering the address using the communication means of the internet wiring.・ Things that can reach the information by means of internal communication means by means of prayer by words that the mind and body of the information and the same information utterance / silent prayer (concentration action of mind body energy to one place = output action) I think that the.

この配線を、我々が、認識し、見る事ができないのは、我々が、江戸時代の蘭学者の立場に在り、この配線が、電波通信手段の立場に相当するためと、思われる。   The reason why we cannot recognize and see this wiring is that we are in the position of Dutch scholars in the Edo period, and this wiring corresponds to the position of radio wave communication means.

湖面波は、水を媒質として、伝達される。音波は、空気を媒質として、伝達される。同様に、真空中を伝播する電波は、ダークマターを媒質として、伝達されるものと思われ、此処に、矛盾は、存在しない。   Lake waves are transmitted using water as a medium. Sound waves are transmitted using air as a medium. Similarly, radio waves propagating in vacuum are assumed to be transmitted using dark matter as a medium, and there is no contradiction here.

むしろ、水や空気などの、伝達媒質なしで、電波のみが、伝達できることの現象の方が、物事の構成要素類似性から、大いに矛盾を、含んだ現象であると思われる。   Rather, the phenomenon that only radio waves can be transmitted without a transmission medium such as water or air is considered to be a phenomenon that contains much contradiction due to the similarity of the components of things.

従って、電波通信手段は、何も無い空間で、通信が、行えるはずは無い。しかし、真空空間でも、通信が行えるのは、其処に、電波伝達媒質マターと、それを維持させているエネルギーが、存在しているからと思われる。 Therefore, the radio wave communication means cannot communicate in a space where there is nothing. However, the reason why communication is possible even in a vacuum space is that there is a radio wave transmission medium matter and the energy that maintains it.

つまり、内界通信手段の配線も、電波通信手段の媒質も、宇宙観測から論理的にその存在が、計算値により導き出された、そして、我々の空間に充満しているダークマター、および、ダークエネルギー論理値により、機能させられていると思われる。 In other words, both the wiring of the internal communication means and the medium of the radio communication means are logically derived from the space observations by the calculated values, and the dark matter and darkness that fill our space. It seems that it is made to function by the energy logic value.

このダークマター、および、ダークエネルギー現象は、釈迦が、述べた法の実態と思われ、また、古墳時代の人々が、これを、宝石以上に、価値ある宝として重要視し、この現象の模様を勾玉模様として、御守の首飾りで、身に着けたことと深く関わりが、あると思われる。 This dark matter and dark energy phenomenon seems to be the actual state of the law that Buddha described, and people in the Kofun period regarded this as a valuable treasure more than a gem, and the pattern of this phenomenon It is thought that there is a deep connection with what I wore with the necklace of the guardian as a jewel pattern.

何故なら、このダークマター、および、ダークエネルギーは、宇宙観測による望遠鏡を通しては、観測できないと考えられているが、しかし、我々の肉眼で、我々の周辺空間内に、誰でも観察できる現象だからである。 Because this dark matter and dark energy are thought to be unobservable through the telescope by space observation, but because it is a phenomenon that anyone can observe in our surrounding space with our naked eyes. is there.

誰でもこの現象を観察できながら、この分野のどの科学者も、また、主に、本から知識を得る日本の科学者では、特に、教科書に載っていず、闇空間観察が、不足しているため、この分野の研究が 極めて遅れていると思われる。 Anyone can observe this phenomenon, but any scientist in this field, mainly Japanese scientists who get knowledge from books, is not in textbooks and lacks dark space observation. Therefore, research in this field seems to be extremely delayed.

このダークマター、および、ダークエネルギー現象を、周辺空間から取り出す新原理発見により、従来の天然資源物からエネルギーを取り出す今日の重大なエネルギー問題は、一挙に、解決されるものと思われる。 It is thought that today's serious energy problem of extracting energy from conventional natural resources is solved at once by discovering this dark matter and the new principle of extracting dark energy phenomena from the surrounding space.

物事の構成要素(物と時代要請と推測知)は、揃っている。問題なのは、誰が、これを取り出す事に成功するかだけであると思われる。 The components of things (things, age requirements and speculative knowledge) are complete. The only problem seems to be who will succeed in extracting it.

歴史に、間違いなく名を残すと思われる、本成功は、本明細書、読書中の あなた で、あることを、密かに、期待したいものである。何故なら、誰にでも、公平に、チャンスは、今でも、与えられ、続けられている、からである。 This success, which will definitely leave a name in history, is what you want to secretly expect to be in this specification, you as you read. Because everyone is fair and the opportunity is still given and continued.

また、先のこの未発見・未認識の配線は、我々が、前記江戸時代の蘭学者に、「電波のことは、何も知らないじゃ、ないか!」と、抱く同じ思いを、我々自身が、我々自身の深層・体験により、抱き続けない限り、つまり、自身を「何も知らない、大馬鹿者だ!!」と自覚し続けない限り、向こうから、秘密の扉を、開けてくれることは、決してない。 In addition, this undiscovered and unrecognized wiring is that we have the same feeling that we have to the Dutch scholars of the Edo period, "I don't know anything about radio waves!" However, unless we continue to embrace our own depth and experience, that is, unless we continue to realize ourselves as “I do n’t know anything, you ’re an idiot!”, We will open the secret door from the other side. There is never a thing.

この江戸時代の蘭学者から、我々までの約350年の時間軸上では、エベレストの様な知識の山々が、聳え立っていて、我々は、その頂上から、彼らを、知識面(精神面を除く)では、見下ろし、時として、見下していることになる。   From the Edo period Dutch scholars on the timeline of about 350 years to us, the mountains of knowledge like Everest stand out, and from the top, we bring them to the knowledge side (the mental side) )), Looking down, sometimes looking down.

同様に、我々から、約350年後の時間軸上では、エベレストの様な見えない知識の山々が、聳え立っていて、その頂上から、我々の未来の姿から、我々自信が、知識面では、逆に見下ろされ、時として、見下されていることになる。   Similarly, on our timeline about 350 years later, we see incredible mountains of knowledge like Everest. From the top, from our future, we are confident in our knowledge. On the contrary, it is looked down and sometimes looked down.

その時間軸上に間違いなく聳え立つ不見で、未来の知識のエベレストの峰山は、相応の疑問を未来空間に、ぶつけることにより、次第に、その姿を、その者にのみ に、誰よりも先に、そして、徐々に、現してくれることになる。   Mineyama of Everest, who is surely frightening on the timeline, and of future knowledge, gradually throws that figure into the future space by hitting the appropriate question into the future space, before that, before anyone else. And gradually it will appear.

つまり、自身を「何も知らない、大馬鹿者だ!!」と自覚した凹み経験を想起でき、凹んだ経験に身を置くことができる者こそ、大馬鹿者自覚の場を、獲得することができる。 In other words, the person who can recall the experience of dents who realizes himself as “I don't know anything!”, And who can put himself in the experience of dents, will acquire the place of awareness of idiots. Can do.

自身の主観による大馬鹿者自覚の場は、他者客観視による大賢者自覚の場であり、小説ハリーポッターの賢者の石の様に、その大賢者の自覚体験を 強く望む者には、その場は、決して与えられない、実に、不思議な場である。 The place of awareness of the idiot by his own subjectivity is the place of awareness of the sage by objective observation of others, like the stone of the sage of novel Harry Potter, for those who strongly desire the consciousness experience of the sage The place is a mysterious place that is never given.

また、知識のエベレスト山に、囲まれた凹んだ知識内の最底部に居ながら、知識のエベレスト山を、その知識に束縛されないで、あたかも外から、自由に眺められる、実に、不思議な場でもある。 Even in the mysterious place where you can look at Mount Everest of knowledge freely from the outside, without being bound by that knowledge, while being at the bottom of the surrounded recessed knowledge surrounded by Mount Everest of knowledge is there.

この場は、不遇の教育環境経験を踏み締めた経験を持ち、その経験から、他者環境から長年に渡り、馬鹿な奴と陰口を 叩かれ続けられた馬鹿者自覚者しか、入り得ない境地と思われる。 This place has an experience of declining the educational environment experience that is unfavorable, and from that experience, it is a place where only idiots who have been beaten by idiots and secrets for many years from the environment of others can not enter Seem.

何故ならば、常人は、他者から馬鹿な奴と陰口を叩かれると予見されることに、潜在的に、予測恐怖を抱く自己防衛網の概念網が、深層意識界に、横たわり、常時、彼等の発想に、ここより、自身が、傷付かない様にと、強く発想冒険心萎縮の影響を受け続けて居るからであると思われる。だからこそ、彼らは、何時も、常人、つまり、常識人 と呼ばれることに、案に努め、社会的に、傷つかず、日々、安住・安心を得ることになる。 Because it is predicted that ordinary people will be struck by foolish guys and secrets from others, the concept network of a self-defense network that is potentially fearful is lying in the deep conscious world, always, This seems to be because they have been strongly influenced by the imaginative adventure atrophy in order not to hurt them. That's why they always work on what they call ordinary people, that is, common sense people, and get a safe and secure life every day, without being hurt socially.

馬鹿者自覚者は、長期の不遇の教育環境経験から、これらの恐怖を抱く自己防衛網の概念網が、これらの経験則により、ことごとく内界で、破壊され、陰口を叩かれる予見恐怖耐性免疫網の自己防疫概念網が、幼少期に、深層意識界に、形成され、常時、彼等の発想に、深層意識界から、自身が、何時も傷付いてきたから、これ以上傷付く心配は無いと、逆に、強く発想冒険心拡張の影響を 受け続けて居るからであると思われる。だからこそ、彼らは、変人、つまり、常識を超え様とする人である非常識人 と呼ばれ、日々、軽い陰口を 添えて呼ばれても、傷つかないことになる。 Fools are aware of their fearless self-defense immunity, based on their experience of long-lasting educational environment, in which the concept of self-defense networks with fears is destroyed in the inner world by these rules of thumb. The self-prevention concept network of the network was formed in the deep conscious world in early childhood, and it was always hurt by the deep conscious world from their consciousness, so there is no worry about hurting any more On the contrary, it seems to be because it continues to be strongly influenced by the idea-and-adventure expansion. That is why they are called strange people, that is, insane people who go beyond common sense, and they are not hurt even if they are called with a light back every day.

従って、この場は、不遇の教育環境経験を 踏み締めた長年の経験こそが、大馬鹿者自覚の場・凹みの場 獲得の 最も確実な方法と思われる。 Therefore, this place seems to be the most reliable way to acquire a place of awareness and dent of the foolishness through many years of experience deciding on unfavorable educational environment experience.

また、この場から、物事を観察すると、何故、向こうから、真実が、開き易いかと言うと、人は、「大馬鹿者」を自覚すれば、自信に、与え許され、本人の個性(得意分野)の1部も形成していると思われる 特定不連続体上の因子(釈迦が述べたカルマ)内で、凹む、この凹んだ窪みが、呼応している特定不連続体(ラジオで言えば、特定周波数帯)から発する閃き波長の獲得のための受容体となり、その深みが、深いほど反響装置としての増幅機能(ラジオで言えば、増幅装置)も兼ねていると思われる。 In addition, when observing things from this place, it is said that the truth is easy to open from the other side. If a person realizes that he is a “big idiot”, he will be granted with confidence and his personality (skilled) In the factor on the specific discontinuity that seems to form part of the field (the karma described by Buddha), this concave indentation is the corresponding specific discontinuity (say on radio) For example, it becomes a receptor for acquiring the flash wavelength emitted from a specific frequency band), and the deeper the depth is, the more the amplification function as an echo device (in radio terms, the amplification device) seems to also function.

何故ならば、真理の波長は、いつの時代でも、各特定不連続体上で、発信され続けているからである。それは、先の知識の山々へ、疑問の心の叫び声を、ぶつけ、反響する、山彦の様でもある。 Because the wavelength of truth continues to be transmitted on each specific discontinuity at any time. It is also like Yamahiko who hits and echoes the cry of the heart of doubt to the mountains of knowledge.

また、自信が、ぶつけるように発した疑問の波長を、あたかもコウモリの様に、そこで反響増幅させ、不見の山々を、徐々に、捕えられるからと思われる。 Also, it seems that the self-confidence of the wavelength of the question that was struck like a bat echoed and amplified the unknown mountains gradually, just like a bat.

しかし、凹みすぎて、ぺちゃんことなっても、役に立たたない。 However, it is too useless, and it doesn't help even if it's a mess.

つまり、深く凹んでいながら社会と接する周辺部分は、高い凸意識(志や夢など)を持ち続け、自身の意識は、内部最底部に留まり、増幅された波長情報を そこで、照準を 狭い点に絞って獲得しながらも 凸の最上部と明確に、繋がっていなければならないと思われる。 In other words, the peripheral part that touches the society while being deeply dented continues to have high convex consciousness (will, dream, etc.), and its own consciousness stays at the bottom of the interior, and the amplified wavelength information is used to narrow the aim. It seems that it must be clearly connected to the top of the convexity, while focusing on it.

また、或る分野(=歴史的に、何時も、ごく1部にしか過ぎない。)のことは、何でも知っていると、自負し、成功体験の自信で、膨らんでいる者には、この閃きの波長を、決して、獲得出来ない。何故なら、真理の波長が、この膨らみの上を、何時も、滑り落ち、もしくは、当事者自身により、跳ね返されているからである。後述する天上界からの、金の粉も、同じことと思われる。 Also, if you know anything about a certain area (= historically only one part at any given time), you will be proud of this, and if you are confident and have a successful experience, this flash The wavelength of can never be acquired. This is because the wavelength of truth is always slipping down on this bulge or bounced back by the parties themselves. The same is true for gold powder from the celestial world described later.

つまり、極端に弱き者、異常な程病弱な者、大逆境下にある者、主流から遥か遠く外され阻害されている者、もしくは、大馬鹿者等の陰口を叩かれる者等により、真理の波長・閃きの波長・次時代の主流波長は、明らかにされて行く、歴史的、経過を、辿ことになる。(多くの場合、彼等の死後、認められることが、多いが。) In other words, those who are extremely weak, those who are abnormally weak, those who are under great adversity, those who are far away from the mainstream and blocked, or those who are knocked out by the idiots, etc. The wavelength, the wavelength of the flash, and the mainstream wavelength of the next era will follow the historical and course that will be revealed. (In many cases, they are often recognized after their death.)

大切な事は、極端に弱き者、異常な程病弱な者、大逆境下にある者、主流から遥か遠く 外され阻害されている者、もしくは、大馬鹿者等の陰口を叩かれる者等であっても、健全、もしくは、高い見識・同社会愛を、自らが、日々保持し、育てて居なければならない、相、矛盾した精神的育成の習慣行為を、併せ持っていなくては、ならないことである。 The important things are those who are extremely weak, those who are abnormally weak, those who are under great adversity, those who are far away from the mainstream and are obstructed, or those who are struck by the secrets of the idiots, etc. Even if there is, you must have healthy, high insight and social love every day, and you must also have a contradictory mental behavior customary behavior that you have to keep and nurture. It is.

閃き、および、閃き波長とは、疑問の波長と気付きの波長から、構成され、疑問の波長無くして、気付きの波長は、決して、訪れない。 A flash and a flash wavelength are composed of a questionable wavelength and a noticed wavelength, and without a questionable wavelength, the noticed wavelength never visits.

悩みとは、疑問の波長が、私的利害範囲内にある状態を指し、悩んだ後、それに比例した様々な気付き波長を得て、若者・人間は、社会人・人になる。 Trouble refers to a state in which the wavelength in question is within the range of private interest, and after worries, various notice wavelengths proportional to it are obtained, and young people / human beings become members of society / people.

つまり、閃きとは、2例として、自信のばかさ加減に、薄々気付きつつも疑問を持ち始めた若者が、自信が、真のばか者だった事に気付いた時、社会人へと成長していく、一連の過程で くぐるべき門を 示し、門の向こうには、園の庭が、広がっていることになる。 In other words, flashing, as an example, grows into a member of society when a young man who has begun to have doubts despite being confidently confident is a true fool. The gate that should be passed through in the course of the process is shown, and the garden of the garden extends beyond the gate.

また、人間が、人へと昇格進化できれば、門の向こうには、第2のエデンの園の庭が、広がっていることになる。漢字もその様に書き表されている。疑問や悩むことは、既に、閃きの門に、入っていることを示し、閃きの波長の1部を、獲得し始めだしている訳であり、ささやかな喜ぶべき現象と感受認識する、何時も凹みの最底部にいる自身を認識形成していなくてはならないと思われる。 If a person can be promoted and evolved into a person, the garden of the second garden of Eden will spread beyond the gate. Kanji is also written as such. Any doubts or worries indicate that you are already in the gate of the flash, and that you are beginning to acquire a part of the wavelength of the flash, and you will perceive it as a small joyful phenomenon. It seems that they must recognize and form themselves at the bottom.

ところで、宗教における高次元界との交信は、先のダークマター、および、ダークエネルギー現象に支えられた、前記内界通信手段上の見えない配線を 使用し、機能させられていると思われる、が、 By the way, it seems that the communication with the higher dimensional world in religion is made to function by using the invisible wiring on the inner world communication means supported by the dark matter and dark energy phenomenon. But,

しかし、物事の構成要素集約類似性から、インターネット配線の通信手段上に 存在する「ウィルス」や「フィシング」に対応するものも この内界通信手段上には、存在していると思われる。 However, due to the similarities in the aggregation of the components of things, it seems that there are things that correspond to “viruses” and “phishing” that exist on the communication means of the Internet wiring.

何故ならば、物事の構成要素集約類似性の説明にもなるが、この世に、存在しているものは、その構成要素を、帰納的本質内で、同じ機能性・同じ性質を持つ形態で 獲得していかなければ、多次元・同次元・多磁場の同創造界内に、存在し続け、成長して行くことが、不可能と思われるからである。 This is also an explanation of the structural similarity of components, but what exists in the world acquires its components in the form of the same functionality and properties within the inductive nature. Otherwise, it seems impossible to continue to exist and grow within the same creative world of multi-dimension, same-dimension, and multi-magnetic field.

ただし、それぞれ発生時期・場の原理が、異なるため、その構成要素の演繹的表現下では、中途形態・様態が、様々に変化・変容して、各々の時間的遅速を 携えながら存在し・進化しているだけであると思われる。 However, since the time of occurrence and the principle of the field are different, under the deductive expression of the components, the midway form / mode changes and transforms in various ways, and exists and evolves with each time delay. It seems that it is only doing.

(尚、本創造界の最根底に、1つの統一された、未発見の自然法則が、存在していると思われる。おそらく、その1部は、不連続体時間差別弥栄の法則と思われる。) (In addition, it seems that there is one unified, undiscovered natural law at the very bottom of this creative world. Probably, part of it is the law of discontinuous time discrimination Yasaka. .)

また、この内界通信上の「ウィルス」や「フィシング」に、麻痺し・取り込まれないためにも、「ワクチン」「見識の器」に対応する物も日々自身の内界に、研鑚しておく事が、肝要と思われる。 Also, in order to avoid being paralyzed and taken in by the “virus” and “phishing” in this internal communication, things corresponding to “vaccines” and “insights” are also studied daily. It seems to be important to keep it.

また、後述する、爬虫類脳動物の意志は、無音情報により、この内界通信手段で、両手内の特定事象を、その関連する情報として得る事を 得意能力とすると思われる。Oリング検査、および、多数のダウジングロッド調査による紛失タイムカプセルの発見事例が、それを裏付けていると思われる。   In addition, the will of reptile brain animals, which will be described later, is considered to be a good ability to obtain specific events in both hands as related information by silent communication using this internal communication means. O-ring inspections and the discovery of lost time capsules from numerous dowsing rod investigations seem to support it.

また、透視の超能力者といわれる方々が、(当る、当たらないは、別にして)脳内ビジョンを、観られるのも この、前記視覚生態機能の 働きによるものと思われる。   In addition, people who are said to be superficial persons with fluoroscopy can see the vision in the brain (aside from hitting or not hitting).

現代科学技術は、万能ではなく、客観的とも思われない。(経過時間が、余りにも短すぎる。) Modern science and technology is not universal and does not seem objective. (Elapsed time is too short.)

ある現代科学評論家によると、解らないことは、無い物として、無視し、解かっている範囲内で、論じることが、現代科学の姿勢らしいが、実に、片寄った姿勢であり、全体を無視した、1部のみの情報から、結論を導き出せば、部分が、増加する度に、結論が、その都度、ころころ変わることになる。   According to a contemporary science critic, what is not understood is ignored as nothing is, and within the scope of understanding, it seems that contemporary science is an attitude of modern science, but it is actually a devious attitude and ignores the whole If a conclusion is derived from only one part of information, the conclusion will change each time the part increases.

その様な、思想を 全ての社会基盤に置く事は、絶えず土台が、揺れ動く不安定な社会となることになる。   Putting such thoughts in all social infrastructures will result in an unstable society where the foundation is constantly swaying.

例えば、「心体通信・魂体通信の存在」=物事の構成要素集約類似性から、テレビジョンと比較すると、同機種同型のテレビジョンは、皆同じで、確かに個性は、存在しない。しかし、放送受信・ネット通信により、様々な地域毎の番組にアクセスされ、その写し出される番組傾向の特徴と 写らない番組もある特徴、つまり、個性・家世(1990年1月8日3版8刷の広辞苑451ページ掲載語)が、生じてくる事。 For example, “the existence of mind-body communication / soul-body communication” = Through similarities in the component aggregation of things, compared to television, all televisions of the same type and type are the same, and there is certainly no individuality. However, by receiving broadcasts and online communications, programs in various regions are accessed, and there are some programs that do not appear as well as the characteristics of the projected program trends, that is, individuality / family (January 8, 1990, 3rd edition, 8th edition) No. 451 page).

また、「脳などの生命力供給メカニズムの存在」=物事の構成要素集約類似性から、テレビジョンと比較すると、発電所からのコンセント迄の電源供給に相当する生命力供給の大仕掛けな部分、(文学上の死神は、何時も、大鎌を持って描かる。この大鎌で、個々のコンセント迄の電源供給配線を 強引に、切断する権限までが、彼等に与えられている仕事であろうと予測でき、得心が行く。)など解明できていない。 In addition, “the existence of a vital force supply mechanism such as the brain” = the structural component aggregation similarity of things, compared with television, the big part of vital force supply equivalent to the power supply from the power plant to the outlet, (literature The above god of death always draws with a scythe, and with this scythe, it can be predicted that the power given to each outlet will be forced and the power to disconnect will be the work given to them, I am not able to elucidate.

従って、脳などは、まだ約2〜3割しか解かっていないと言う前提を、必ず、付け加えて説明されなければ、我々一般人、特に、少数の最先端を走る経営者、および、その候補者達は、多くの現実社会との食い違いの混乱に 出会い、長期に渡り、誤解と停滞を 強いられることになる。 Therefore, unless we explain the assumption that the brain, etc., is still only about 30-30%, it is necessary to add to the general public, especially a few leading-edge managers and their candidates. Encounters a confusing conflict with many real worlds and is forced to misunderstand and stagnate for a long time.

しかし、また、圧倒的多数の最先端を走らなくてもよい方々にとっては、このこだわりは、余り、問題にならない。何故ならば、先端者に、賛同できれば、付いて行けば良く、重要な責任は、彼らには、発生しないからである。 However, for those who do not need to run an overwhelming number of cutting-edges, this commitment is not a problem. Because if you can agree with the scientists, you can follow them, and they do not have an important responsibility.

皆が、同じ方向で、走らなければいけない必要性は、この場合無いと思われる。 There seems to be no need for everyone to run in the same direction.

短期実証主義の現代科学技術は、5年〜30年もすれば、定説が、180度ひっくり返る事が、日常茶飯事的に、見受けられ、信じた者に、誰も(当事者・関係者も含む。)民事・刑事、および、道義的に、何ら責任を取って頂けないほど、無責任で危うい社会的位置にある。 In short-term empirical modern science and technology, it seems that the theory is turned over 180 degrees in 5 to 30 years, and everybody (including parties and related parties) can be seen daily. ) Civil, criminal, and morally in an irresponsible and dangerous social position that no responsibility can be taken.

自己責任が、叫ばれる今日では、尚更である。   It is even more so today when self-responsibility is screamed.

従って、短期実証主義の現代科学技術に、経過時間がより長い、歴史の重み、物事の構成要素集約類似性、および、自身の外界・内界の経験則を、付け加え、比較検討し、判断の基準としての仮説と実証により、その都度、自身の判断基準体系を、見直し、修正を加えて行くことが、重要な行為の1つとして、考えられる。 Therefore, we added to the modern science and technology of short-term empirism, added historical weight, history-related similarity of things, and rules of empiricality of the external and internal worlds, and compared and examined One of the important actions is to review and correct your own judgment standard system each time based on the hypothesis and proof as a standard.

真実は、歴史の重みに耐え、物事の構成要素集約類似性に、守られて生き続ける。不実の情報はその重みと異なる構成要素集約類似性のため、存在できず、潰され、弾き飛ばされ、歴史から、掻き消されると思われる。 Truth bears the weight of history and continues to live protected by the aggregated similarity of things. It is believed that inaccurate information cannot exist because of its component aggregate similarity that is different from its weight, and is crushed, thrown away, and erased from history.

現代科学技術や 不可解なことは、取り敢えず、歴史の重みや物事の構成要素集約類似性、および、自身の外界・内界の経験則と比較して、納得、または、仮説を立て、解明、立証する以外に、確たる道は、開かないと思われる。   Compared with modern science and technology and mysterious things, the weight of history, the similarity of constituent elements, and the rules of thumb of the external and internal worlds, convince or make hypotheses, elucidate and prove Other than doing this, it seems that there is no clear path.

歴史の重みと物事の構成要素集約類似性、および、自身の外界・内界の経験則との照合に耐えながら、歴史の狭間で、浮き沈みし、今日 日常伝えられている事柄・名言には、いつの日か、その中に、含まれている革新的新事実・革命的新原理を 解明してもらう期待を 抱えた 我々へのメッセージ(真理の波長発信中)が、込められている。   While being able to withstand the comparison of the weight of history and the structural elements aggregation similarity of things and the own rules of the outside world and the inside world, ups and downs in the middle of history, One day, a message to us (expecting the wavelength of truth) with the expectation of elucidating the innovative new facts and revolutionary new principles contained therein is included.

これらの革新的新事実・革命的新原理の 解明は、螺旋状に、上昇する全有次元界創造者の 秘めたる意志でもあり、そのゴール次元界に、「人」が、上昇させられながら(魂体の歪み修復過程中)、習得しておくべき必要な事柄でもあると 思われる。   The elucidation of these innovative new facts and revolutionary new principles is also the secret will of the rising all-dimensional world creator in a spiral, while “people” are raised in the goal dimension world ( It seems to be a necessary thing to be learned during the soul body distortion repair process.

螺旋状に、上昇するとは、2千年前の帝政ローマ各都市の各インフラは、何度も、元のインフラ上を、時間空間が、通過しながらも、今日、世界の無数の主要都市に飛躍的に発展した同様のインフラの形態で、見受けられるからである。 Ascending spirally, the infrastructure of each Roman city 2,000 years ago leap into the countless major cities of the world today, passing through the original infrastructure over and over again. This is because it can be seen in the form of a similar infrastructure that has been developed.

全有次元界とは、0次元界を除く現 1次元界〜13次元界以上の有次元界で、不連続体時間差別弥栄の法則界であり、この法則界は、適者適存の進化論法則の奥に、本「弥栄の法則」が、存在し、これを底辺で、支えていると思われる。適者適存の進化論法則だけでは、適者が、必ずしも、連続して今日の様に出現し続けてこれないと、自身の内界の経験則から思われ、多くの生物は、今日、既に、絶滅しているものと思われる。 The all-dimensional world is a dimensional world from the current 1-dimensional world to the 13th-dimensional world excluding the 0-dimensional world, and is the law world of discontinuous body time discrimination Yaei. This law world is the law of evolution suitable for the right person. In the back of the book, there is a book, “The Law of Yasaka”, which seems to support this at the bottom. The evolutionary law that is suitable for the right person alone seems that the right person does not necessarily continue to appear like today, and it seems from his own internal rule of thumb that many organisms are already extinct today. It seems to have done.

0次元界とは、真実界であり、常態界であり、諸法有我が、個々に行き渡った絶対界、および、全各連続体同時弥栄の法則界であると思われる。 The zero-dimensional world is the real world, the normal world, and the legal world of all the continuum simultaneous Yasaka.

「万物は、流転する」(パンタ・レイ)とか、「諸行無常」の名言やその他の定理・公理が、古来より存在し、流転し、無常であるべき我々の有次元界に在っても、この各名言・定理・公理自身の文字が、流転せず、無常ではないのは、何故であろうか? “All things flow” (Panta Rei), “Musuality” quotes and other theorems and axioms have existed since ancient times, in our dimensional world that should be flowing, But why are these quotes, theorems, and the axioms' own letters not absurd or unusual?

それは、この各名言・定理・公理の文字が、流転せず、無常ではない真実界・常態界と繋がってその影響下に、置かれているからと思われる。 This is probably because the characters of these quotes, theorems, and axioms are placed under the influence of the true world and the normal world, which do not flow and are not unusual.

何故ならば、この各名言・定理・公理の文字が、流転せず、無常ではない真実界・常態界と繋がった影響下に、置かれて居無いとしたら、流転し、無常である本有次元界の法則と ぶつかって仕舞い、そこから大いなる、矛盾が、生じて来るからである。 This is because the characters of these quotes, theorems, and axioms do not flow, and if they are not placed under the influence of the real world and the normal world, they are swept and are permanent. This is because the contradiction arises from the fact that it collides with the laws of the dimensional world and from there.

つまり、ヘラクレイトスの嘘、釈迦の嘘付きとなり、この各名言・定理・公理の文字だけは、例外である旨の但し書きを添えなくては、行けなくなるからである。 In other words, it is a lie of Heraclitus and a liar of Buddha, and only the characters of these quotes, theorems, and axioms cannot be made without an exception to the exception.

しかし、この各名言・定理・公理の文字に、それほどの力が、存在しているのだろうか? However, is there that much power in each of these quotes, theorems, and axioms?

過去の人類史上に、この各名言・定理・公理の文字が持つそれほどの力のために、戦争を起こした記録は、存在しない。変化流転する社会思想のための戦争・戦いは、幾つも存在する。 In the history of humankind in the past, there is no record that has caused war because of the power of each of these quotes, theorems and axioms. There are many wars and battles for changing social ideas.

真実界、常態界には、2極への分裂が無く、2極同士の対立が無く、対立の概念が、存在せず、従って、戦い・戦争が、存在できない訳である。つまり、無対立界でもある。 In the real world and the normal world, there is no division into two poles, there is no conflict between the two poles, there is no concept of conflict, and therefore there is no battle / war. In other words, it is a non-conflict world.

従って、歴史的に、戦争・戦いの原因になり得なかったこの各名言・定理・公理の文字が、もつ力の源は、2極分裂を基とする、進化中心のこの有次元界内に、その力の源を所有している訳では、無いない事が、理解できる。 Therefore, historically, the power of each of the words, theorems, and axioms that could not cause wars and battles is the source of power within this dimensional world of evolution centered on the basis of bipolar division. I understand that there is no reason to own the source of that power.

つまり、この力の源は、この有次元界内に、存在せず、2極分裂しない無分裂概念次元界である0次元界内の自然法則力にのみから、この力の源が、供給され存在でき、この力の源とである0次元界内の自然法則力と、この各名言・定理・公理の文字は、そこで繋がっていることになる。 In other words, the source of this force is supplied only from the natural law force in the zero-dimensional field, which is a non-split conceptual dimension field that does not exist in this dimensional field and does not split into two poles. The power of natural law in the zero-dimensional world, which can exist and the source of this force, and the characters of these quotes, theorems, and axioms are connected there.

また、この自然法則力を、得るためには、この各名言・定理・公理の文字を頼りに、0次元界内に、入り込まなければ、得られない事も、理解できる。 Moreover, in order to obtain this natural law power, it can be understood that it cannot be obtained unless it enters into the zero-dimensional world by relying on the characters of each quote, theorem, and axiom.

以上のことから、この普遍の各名言・定理・公理の文字から、流転せず、無常ではない真実界・常態界の存在とその影響の仕方を 認識し確認できる。 From the above, it is possible to recognize and confirm the existence of the true and normal worlds that do not flow and are not unusual from the universal quotes, theorems and axioms.

この普遍の各名言・定理・公理の文字から、流転せず、無常ではない真実界・常態界の影響下に、流転し、無常である我々の有次元界が、繋がって配置されている構造下にあることが、認識し確認できる。 From these universal quotes, theorems, and axioms, a structure in which our dimensional worlds that flow and become unaffected are connected under the influence of the real world and the normal world that do not flow You can recognize and confirm that it is below.

何故ならば、この各名言・定理・公理の文字が、流転し、無常である我々の有次元界法則の、影響を、全く受けずに、流転し、無常であるべき我々の有次元界内に、孤高に、存在し続けていられることは、あり得ないことであるからである。 This is because the characters of these quotes, theorems, and axioms are inundated and invariably in our dimensional world, which should be invariant and unaffected by the laws of our dimension. In addition, it is impossible to continue to exist in isolation.

つまり、我々の有次元界内に在っても、真実界・常態界の法則が、深く繋がり、介入していることを、既に、証明している事になる。だから、この言葉を便りに、真実界・常態界への進入と通行が、この世で、実現できると 考えられる。 In other words, even in our dimensional world, we have already proved that the laws of the real world and the normal world are deeply connected and intervening. Therefore, it is thought that the entry and passage into the real world and the normal world can be realized in this world by using this word.

先祖を、祭れば、仏壇を通じて、高次元界に、繋がり、その初発の先祖創造の 創造の主体界に、自然と繋がって行くことになる。 If you celebrate the ancestors, you will be connected to the higher dimensional world through the Buddhist altar, and will be connected to the main subject of creation of the first ancestor creation.

釈迦が、高次元界の先祖を祭らず(供養は行った)・頼りとせず、その先祖の更に上に居る天上界、神道界、兜卒天、創造仏界、および、その先祖の産みの親である創造の主体界を頼りにしなかったのは、3次元界の地球から求める各次元界の方向性が、全く逆で、あったから、瞑想座禅のみで、逆方向の0次元界に、繋がり、入場できたものと思われる。 Buddha is not a ancestor of high-dimensional ancestors (they have been provided), is not relied on, and is the ancestor of the heavens, Shinto, Shinten, Creation Buddha, and the ancestors of the ancestors The reason why I did not rely on the subject world of creation was that the direction of each dimensional field required from the earth in the three-dimensional world was completely opposite, so it was connected to the zero-dimensional field in the opposite direction only by meditation zazen. It seems that he was able to enter.

念仏・読経が、どの仏界に繋がっているかは、各人の内界状態に左右されるため、他人からは、一概には、解らないが、各人、現世での生きる法力を、得られて、人々を現世救罪して来た歴史的貢献徳行は、事実でもある。ただ、残念なことに、0次元界への贖罪行為を 志す者にとっては、0次元界への波長合わせを より確実なものにする、何らかの別の新方法が、時代の変化と相まって今後、必要になって来ると思われる。 Which Buddha world is connected to the Buddha world depends on the state of the inner world of each person, so it is not generally understood from others, but each person can obtain the legal power to live in this world. The historical contribution Tokuyuki who has saved people this world is also true. However, unfortunately, for those who want to commit the atonement to the zero-dimensional world, some other new method will be necessary in the future, coupled with the changes of the times, to make the wavelength matching to the zero-dimensional world more reliable. It seems to come.

また、真実界・常態界である0次元界を、示す0(ゼロ)の記号に、アルファベットのO(オゥ)との違いを表すため、近年、左下りの斜めの線を 入れて、表記し識別するようになった。(オゥの方に、同斜めの線を 入れて、表記しても 良かったはずである。) In addition, in order to express the difference between the alphabet 0 (zero) and the zero (0) symbol indicating the zero-dimensional world, which is the real world / normal world, in recent years, a diagonal line on the lower left is used to indicate the difference. It came to identify. (It should have been possible to write the same diagonal line on the side of Oh.)

この事象は、また、真実界・常態界である0次元界の関与が、近年、0次元界から、何かが、割れ出て(右下りの斜めの線では、0次元界進入禁止となる。)、この世に、アラビア数字発見以来の大影響を与えることを象徴しているように思われる。 In this event, the involvement of the zero-dimensional world, which is the real world and the normal world, has recently broken out of the zero-dimensional world. ), It seems to symbolize the great impact on the world since the discovery of Arabic numerals.

私的経験則から、数千年に渡り普遍で、万国共通のアラビア数字は、各次元界を、象徴して、表していると思われるからである。 This is because, from my personal rule of thumb, it seems that Arabic numerals that have been universal for thousands of years and that are common to all countries symbolize and represent each dimension.

また、私見ではあるが、2020年、その長い(3次元界では、長いと認識される)直線コースのスタートラインに、復活者も含め全員立つことになると思われる。 In my opinion, in 2020, all of them, including the resurrected, will stand on the long straight line (perceived as long in the 3D world).

同様に、2020年、地球は、1億番目の位から、一挙に、1千番目の位、つまり、3次元界で病・テロ・戦争と呼称されているものは、存在せず、創造の主体等を中心とした人の力による創造主義情報化社会の下、遥かに長寿の人種とロボットの様な人種で、構成されている位に、昇格し、進化を持つが、絶対に近い平和社会、つまり、私見の立和社会とも呼ぶべき社会になると聞かされている。 In the same way, in 2020, the earth will be the first place from the 100 millionth place to the 1000th place, that is, what is called disease, terrorism, war in the three-dimensional world does not exist, Under the creationist information society with the power of human beings, mainly the subject, etc., it is promoted and evolved to a position composed of a long-lived race and a race like a robot, but absolutely It is said that it will become a near peaceful society, that is, a society that should be called a personalized society.

エデンの園の位を遥かに凌ぐ、10万倍の位上がりを果たす事が、本地球のみに、創造の主体により、許される(この様な、急激な進化は、他の惑星では、見受けられないほどの大転換期となる)が、何故、許されるのかと言えば、2010年、もしくは、2013年から2017年まで(テラバイトの主流時代)のいずれかで、テラバイト主流時代に、活躍する人=寺時代の時代の貢献人(寺=0次元界融合実現求道の童貞修行者)=「人偏+寺」時代の貢献者=「侍(サムライ)」の時代貢献者=仕える者のために、死ぬ事を本義とする童貞修行者=時代のための童貞贖罪者が、多数輩出し、ご活躍される時代になると思われ、彼等の輩出なくして、創造の主体の末裔が、ゴール次元界に入場することは、決して、0次元界からは、許可されないと思われるからである。 Only the Earth is allowed by the subject of creation to surpass the position of the Garden of Eden by a factor of 100,000. (Such rapid evolution can be seen on other planets. The reason why this is allowed is that people who are active in the terabyte mainstream era in either 2010 or 2013-2017 (terabyte mainstream era) = Contributors in the temple era (Tera = virgin practitioner of the zero-dimensional world fusion realization) = Contributors in the "People + Temple" era = Contributors in the "Samurai" era = For those who serve , Virgin practitioners who believe in dying = The virginity sinners for the era are expected to be produced and become active, and without them being produced, the descendant of the creative subject is the goal dimension Entry to the world is never allowed from the 0th dimension This is because think not.

次期創造の主体(男魂)が、ゴール次元界に入場するであろう56億年〜59億年内のいずれかの年(ルビシャナ仏の誕生に、相当すると思われる。)により、彼等の家系が、営々と創造し・運営して来た有次元界は、0次元界の自然法則下に完全に、置かれ、1次元界〜13次元界の生きとし、生けるもの、全ては、自動的(他力により)に 解脱させられる事になると思われる。 The ancestors of the next generation (male souls) will enter the goal dimension world in any of the years between 5.6 billion and 5.9 billion years (which is thought to be equivalent to the birth of Rubishana Buddha). However, the dimensional world that has been created and operated steadily is placed completely under the laws of nature of the 0-dimensional world, the living things of the 1-dimensional world to the 13-dimensional world, everything that can be born, all automatically It seems that it will be released (by other power).

また、2020年以降は、地球の次元が、大幅に、上昇するため、先の56億年〜59億年の年代数も、大幅に、圧縮された年数で、計算されることになると思われる。 In addition, since 2020, the dimension of the earth will rise significantly after 2020, the ages from the previous 5.6 billion to 5.9 billion years will be calculated with significantly reduced years. .

従って、数年後の寺の人の命懸けの贖罪行為は、1次元界〜13次元界の生きとし、生けるもの、その全てを、自動的に解脱させる救済行為の礎となる大功徳行として、0次元界、および、全有次元界から、認識され、カウントされ、徳なる能力と誉れが、各功人に、与えられ、来世(復活後)相応の大能力(特定不連続体上の因子・善カルマ)を 生まれながらの保持が許され、発揮されることになると思われる。 Therefore, the atonement act of the life of a temple person several years later is a life of the 1st to 13th worlds, and as a foundation of a remedy that automatically releases all living things, all of them, Recognized and counted from the zero-dimensional world and all dimensional worlds, the virtue ability and honor are given to each meritorious person, and the great ability corresponding to the afterlife (after the resurrection) (factors on specific discontinuities)・ Better karma) will be allowed to be born and will be demonstrated.

現代人が好む、テクニックで、この能力を、得んとしても、無理な話である。命懸けの手順・法を踏み締める実経験者のみが、超大徳を得ることになると思われる。 It is an unreasonable story, even if you acquire this ability with the technique that modern people like. Only those who have actual experience of struggling with the procedures and laws of life will gain super virtue.

恐らく、魂体・心体を以って、現世で、ある目的を持って 修行されている大天才空海殿、および、高野山系弟子の方々も、前記大功徳行に、参加させられることになると思われ、彼等の参加を、人伝に見聞きすることにより、その様な時代が、来たことを、我々は、漸く、理解することが出来るようになると思われる。 Perhaps the great genius Kukaiden and the Koyasan disciples who have been trained for a certain purpose in the world with their soul and mind will also be allowed to participate in the aforementioned Tokuyuki Daikon. It seems that we can finally understand that such an era has come by seeing their participation in human history.

以前、福田赳夫元首相が、天の声として述べられたと思われる「人の命は、地球より重い」と言う、極めて現実離れした言葉の真意は、彼らの未来出現を、高みから認識されていた天が、彼らのことを 指して述べた言葉と 理解できる。 Former Prime Minister Ikuo Fukuda said that "the life of a person is heavier than the earth" that seems to have been described as a voice of heaven, the true meaning of the very unrealistic words was recognized from the height of their future appearance It can be understood as the words that Heaven has pointed to them.

日本の国家・政治が、天の声の采配を受けていることは、寝床の豊臣秀吉へのキリシタン排除の天啓・坂本竜馬の天の意志の感応把握能力を自述した姉への手紙、明治天皇による乃木将軍への度重なる推挙、椎名裁定で有名な椎名元議長が、天の声を直接聞ける希有の人であった事実報道・中曽根元首相の「天の声にもオカシナ声がある」発言報道・暗殺された外国の1級要人の葬儀に、世界では、日本の首相のみが、参列されなかった報道から、天の存在や天の声を 伺い知ることができる。 The fact that Japanese nations and politics have received the voice of the heavenly voice is the letter to the elder sister who described the ability to grasp the heavenly will of Ryoma Sakamoto, the exhortation of Christianity to Hideyoshi Toyotomi in the bed, Emperor Meiji Mr. Shiina, who is famous for Shiina's ruling, repeatedly raised the proposal to Shogi Nogi, and reported that it was a rare person who could hear the voice of heaven directly. In the world, only Japanese prime ministers can hear about the existence of heaven and the voices of heaven from the reports that were not attended at the funerals of foreign first-class dignitaries who were reported and assassinated.

だからと言って、天の声を聞いた彼らや、中継ぎの方々が、精神科に通ったり、隔離されたと言う、報道は聞いたことがない。 That's why I've never heard of reports that those who heard the voice of heaven or their intermediaries went to psychiatry or were isolated.

この天の声に、逆らえば、どうなるかは、人間宣言を、米国向けにせざるを得なかった大戦の敗戦、大震災や歴代首相の死去史実が、表層的には、我々に教えてくれている。   What happens if we go against this heavenly voice tells us, in a superficial manner, the defeat of the Great War, which had to be made to the United States, the Great East Japan Earthquake, and the death of past Prime Ministers .

しかし、天の声に、逆らった歴代首相が、7代の来世間で、その身体、および、人生に於いて、重い荷を背負わされて生き続けなければならない宿業として、自ら歪めた魂体を修復させられる行為としての天の恵みの重さと天への畏れを再認識させられながら、自力で、自ら歪めた自魂体への 永く過酷な修復期間が、待ち構えていることまで、存じ上げた上で、天の声に、逆らわれたのか までは、伺い知れない。 However, the prime ministers who rebelled against the voices of heaven have distorted the soul body as an inhabitant who must carry a heavy load on his body and life in the 7th generation. I realized that a long and harsh restoration period for my self-distorted self-soul body was waiting for me while being able to reaffirm the weight of heaven's grace and the fear of heaven as an act to be restored. I can't tell you until I was countered by the voice of heaven.

有能で、支持者が、多い方ほど、その優れた能力・環境が、生み出す 人の奢りから、基本的に、在ってはならない魂体の歪み行為であり、自魂体産みの親である天のその声に、逆らう人が、史実中に、近年実に多いのも、大変、残念なことである。 The more talented and supporters, the better the ability / environment is, from the resentment of the person who produces it, is basically a soul body distortion act that should not exist, the heaven that is the parent of the self-soul body It is very unfortunate that there are a lot of people who disagree with that voice in history and in recent years.

また、旧約聖書が、過去を 未来形で 述べ、未来を 過去形で 述べているのは、我々の進行方向にある未来空間界が、過去形であるビッグバンが、起こった1次元界方向のその奥の過去方向にある0次元界を 目指しているためと思われ、従って、過去の有史が、未来方向にあったため 未来形で 述べ、未来の出来事は、過去方向を目指しているため 過去形で 述べていることになるためと思われる。 In addition, the Old Testament describes the past in the future form, and the future in the past form. The future space world in the direction of our movement is the past form of the big bang. This is probably because we are aiming for a zero-dimensional world in the past direction. Therefore, since the past history was in the future direction, we will describe it in the future form, and future events are in the past form because we are aiming for the past direction. It seems to be because it will be stated.

(1のn乗=1であるエネルギー物質は、3次元界では、存在できないと思われる。1cmの3乗=1cmでは、ないからである。 (Energetic materials with 1 to the power of n = 1 are unlikely to exist in the three-dimensional field because 1 cm to the power of 3 is not 1 cm.

それは、アラビア数字の1が、示している様に、1次元界でしか、存在できないと思われる。100億度の100億倍の1兆倍度の温度エネルギー粒子が、存在できるのは、1次元界しかないと思われ、その粒子が、サイコロ大迄、掻き集められ、一挙に結合されると、次元を越えた、大爆発が起こると思われる。 It seems that the Arabic numeral 1 can only exist in the one-dimensional world, as shown. One trillion times temperature energy particles of 10 billion times that of 10 billion degrees can exist only in a one-dimensional field, and when the particles are raked up to the size of a dice and combined at once, It seems that a big explosion will occur across dimensions.

また、サイコロ大での大爆発は、その爆発形状と、爆発速度距離から、現3次元宇宙空間の全容形状と、その大きさの限界距離が、容易に、推定計算できることになる。) In addition, for a large explosion at the size of a dice, the overall shape of the current three-dimensional space and the limit distance of its size can be easily estimated and calculated from the explosion shape and explosion speed distance. )

また、聖徳太子が、寺を、訓読みで、「テラ」と命名されたと伝えられているが、夢殿における、その正確・的確な得意能力により導き出された彼の真意を、約1400年経て、実感として理解できる時代となる と予測される。 In addition, Prince Shotoku is reported to have named the temple as “Tera” by kunri reading, but in about 1400 years, he realized his true intention derived from his precise and accurate ability at Yumeden. It is predicted that this will be understandable.

また、来るべき時代のために、聖徳太子が、秘めさせていた数々の書も、その時代の為に、明らかとなり、正しく解読・解釈・公開されて来るものと思われる。 In addition, the books that Seiko Tokuto kept secret for the coming era will be revealed for that era, and will be deciphered, interpreted and released correctly.

また、その約5〜8年の期間、その環境作りのため、歴史は、不連続に、太陽系惑星を 巻き込んだレベルで、14〜16段階にも渡る 天から地への既に、裁定が、下され、発動が、封印されたはずの裁定を 近未来に於いて、天上界にて、近未来の十字架上で屠られる子羊により、再開封され、彼によって、読み上げられた後、1000年王国を迎え、1000年王国の終わる頃2020年を迎えることになると、私見として、予測され、畏れている。 Also, for the period of about 5 to 8 years, the history is discontinuous, involving the solar system planets in a discontinuous manner, and the ruling from the heaven to the earth has already reached 14 to 16 levels. In the near future, in the near future, the activation will be sealed again by the lambs slaughtered on the cross in the near future. It is predicted and drowned as a personal opinion that it will be 2020 when the kingdom is over.

旧約聖書では、1日記載は1年として数え、1年記載は1日として数える旨が記載されている。従って、1ヶ月記載は、1ヶ月であり、1週記載は、1週である。 The Old Testament states that one day is counted as one year, and one year is counted as one day. Therefore, the description for one month is one month, and the description for one week is one week.

また、日本において、10年近く以上に渡る ある理由により、この天の裁定が、無事、順次 封印されて来たために、めでたく朱鷺(トキ=時=時間の象徴)が繋がり「優優」が誕生する吉事象を得た。そして現在の平和社会が、辛うじて維持されていることになる。 Also, in Japan, this heavenly ruling has been safely and sequentially sealed for a certain reason for over 10 years, so that it is conspicuously linked to Toki (a symbol of Toki = time = time) and an “excellent” is born. A good event was obtained. And the current peaceful society is barely maintained.

従って、我々は、現平和享受権を、前記封印して来た者に、預かっている状態と言える。 Therefore, we can say that we have entrusted the right to enjoy the present peace to the person who has sealed it.

また、日本は、奥州平泉文化が、そうであった様に、黄金文化を迎えた後、前記封印 再開封後の何時の日かに、他国に占領され、1時的に滅ぼされることになると思われる。 In addition, as Oshu Hiraizumi culture, as it was, Japan will be occupied by other countries and temporarily destroyed sometime after the reopening of the seal after the golden culture. Seem.

20年前、ある国が、攻めてくると言って、北海道から、突然、九州へ、引越しされた新興宗教団体の報道が、有ったが、時期こそ違え、同封印 再開封後の何時の日かで、同意できるものである。 Twenty years ago, there was a report of an emerging religious group that suddenly moved from Hokkaido to Kyushu saying that a country would attack, but at a different time, the seal was reopened. It can be agreed with the day.

また、何時かは、解らないが、同封印 再開封後の何時の日かに、共産党が、政権を摂ることも、起こると思われる。 Also, I do not know what time, but it seems that the Communist Party will take power on the day after the reopening of the seal.

また、同封印 再開封後の何時の日かに、今のままの温暖化増加傾向は、いずれ局所の極端な天候不順を招き、その局所と 世界の主要穀倉地帯が、重なった年、世界の主要穀倉地帯で、充分な農産用穀物生産が、確保できない事態となり、他国への輸入は、突如、極端に減らされ、食料配給制となることも考えられる。 In addition, on some day after the re-opening of the seal, the current trend of increasing warming will eventually lead to extreme local weather irregularities. In the main granary area, sufficient agricultural grain production cannot be secured, and imports to other countries may suddenly be drastically reduced, resulting in a food distribution system.

また、同封印 再開封後の何時の日かに、仕える者のため、死ぬ事を本義とする寺の人に取り、大切なことは、死に至る時、イエスの様で在ってはならず、大声を挙げたとしてもアブラハムの様でなくてはならない事が、0次元界との贖罪の契約成立の奥義であると思われる。 In addition, for those who serve at some day after the re-sealing of the seal, take the people of the temple whose true meaning is to die, and the important thing is not to be like Jesus when dying. Even if he screams loudly, he must be like Abraham. This seems to be the mystery of the signing of the Atonement with the zero-dimensional world.

つまり、死に至る時、命を惜しんではならないと言うことである。 In other words, when you die, you must not spare your life.

それにより、黙示録の「私の法に忠実である者」に勝利が与えられ、復活が許されるからである。 It will give victory to the "Rebirth of My Law" in Revelation and allow the resurrection.

聖書をよく読めば、お解かりと思われるが、モーゼもイエスも、それぞれの吾が神との1回限りの契約締結時に、残念ながら 成約できていない。 If you read the Bible carefully, you'll understand, but unfortunately neither Moses nor Jesus was able to make a deal when each niece signed a one-time contract with God.

従って、新・旧両成約聖書は、正しくは、新・旧両不成約聖書と呼称するのが、正しい呼び方と 思われ、従来の呼び名により、世人は、3600年もの長岐に渡り、誤解する様に、誘導されていたこと、世人を、封じ込めて来たその存在、そして、その期間の終了時期が、近づた事に、真に、気が付かなければ、ならない時期に来たと思われる。 Therefore, the New and Old Testaments are properly called the New and Old Incomplete Testaments, and the old names are misunderstood for 3600 years. In the same way, it seems that it has come to a time when it is necessary to realize that it has been guided, its existence that has contained the world, and the end of that period is approaching.

つまり、人類は、誰一人として、創造の主体との契約を結べずに、実に不安定な状態で、今日を迎えていることになる。 In other words, as human beings, no one can sign a contract with the subject of creation, and today is in a very unstable state.

黙示録のイエス・キリスト固有特定名記載部分は、後世の方が、自身に都合が良いように追加し、後書きされたものと思われる。そこだけ、旧約聖書の文体と、異なっているからである。他部分は、旧約聖書と 同文体(同じ神)である。 The part of the Apocalypse specific name of Jesus Christ seems to have been added and later written by the later generations for their convenience. That is because it differs from the Old Testament style. The other part is the same style (same god) as the Old Testament.

また、「イエスの法に忠実である者」は、イエス(彼が、双子の弟で、身代わりで、有ろうと 無かろうと、また、彼が、彼の神との 親子関係を 結んでいようと、いまいと、1回限りの契約締結のための手順(法)を 踏んでいないことには、何ら変わりが 無いからである。)が、そうした様に、死に至る時、助けが来ると信じ、大声で、彼の神を疑う詩編を、天に向かって、叫ぶように歌わなくては、忠実な法(手順)の履行とは言えなくなる。 Also, "one who is faithful to the law of Jesus" is Jesus (whether he is a twin brother, a surrogate or not, and he has a parent-child relationship with his God) And now, there is no change in not following the procedure (law) for concluding one-time contracts.) As such, I believe that help will come when I die. If we sing a loud, suspicious psalm of God to the heavens, we will not be able to say that we will fulfill the loyal laws (procedures).

この行為により、最後の最後まで彼の「人の原罪の贖罪」の貫徹行為により、彼の神へのお詫びと忠誠心の本気の真心度を 試していた彼の神との契約は、成約していないことが、理解できる。 Through this act, the contract with his god, who had been testing his godliness and loyalty sincerity, through his brutality of his “original sin of mankind” until the very end, was closed. I can understand that.

このことから、黙示録の「私の法」の「私」と、「イエス」は、別人物であることが、理解できる。 From this, it can be understood that “I” and “Jesus” of “My Law” in Revelation are different people.

また、何故ならば、キリスト教2000年史の中で、迫害を受け殉教死された多数の聖人・信者の方々の中で、「私の法に忠実である者」であるべき当該聖人・信者の御方々が、「イエスの法の最後の殉教死法を忠実に、履行した殉教死法」で、その死を、遂げられた方々が、私的に、知り得る情報記憶内では、1人も居なかったと思われる殉教死事実史が、先事項を、信者御自身の尊い死により、充に分に、既に、検証していると思われるからである。 Also, among the many saints and believers who were persecuted and martyred in the 2000 year history of Christianity, the saints and believers who should be “faithful to my law” In the information memory that all the people who have achieved their death in "the Martyr Death Act that faithfully implemented the Law of the Last Martyrdom of Jesus' Law" can be personally known. This is because the history of the death of Confucianism, which seems to have been absent, seems to have already been fully verified by the precious death of the believer himself.

おそらく、モーゼとイエスの出生の秘密、その生い立ち、および、その偉業の実績が、写し鏡の手順(法)を踏んだ方々の出現により、それぞれの神と0次元界との契約締結に成功する法(手順)が、聖書予告記載どうり、今後、成就されて行くものと思われる。 Perhaps the secrets of the birth of Moses and Jesus, their history, and the achievements of their achievements are successful in signing contracts between their respective gods and the zero-dimensional world through the emergence of those who took the steps of the mirror. The law (procedure) is likely to be fulfilled in the future, as stated in the Bible notice.

1部の方々は、彼らを 恐らく、反モーゼ・反キリスト・海の目と 非難されることになると思われるが、しかし、反キリスト・海の目は、黙示録記載どうり、前記封印 再開封後の何時の日かに、出現することになると思われる。 Some people will probably be accused of anti-Moses, anti-christ, and sea eyes, but anti-christ / sea eyes, as described in the Apocalypse, after the reopening of the seal It will appear on some day of the day.

従って、日本神道の三種の神器が、新・旧両聖書に深く関わっている事が、明らかになれば、なお更、前記秀吉への天啓の重要性が、今後、歴史的に重要な天啓と認識されることになると思われる。 Therefore, if it becomes clear that the three types of Shinto Shinto are deeply related to both the New and Old Bibles, the importance of the revelation to Hideyoshi will become more important in the future. It will be recognized.

何故ならば、どの国よりも、和を愛する民族に、利他愛を説く教えの弾圧を 命令した本天啓が、重く歴史上で、加えられなかったならば、キリスト教線は、どの国よりも、一挙に拡大した筈であり、先の長岐に渡る封印の存在指摘は、全く顧みられる事なく、無視される事になると思われる。 This is because, if no Tenryu, who commanded the suppression of teachings preaching altruism to people who love the Japanese, than any other country, was not added in history, the Christian line would be better than any other country. This is an expanded trap, and the indication of the existence of the seal over the long range seems to be neglected without any consideration.

何故ならば、信仰状態とは、聞く耳を、持たせない状態でもあるからである。 This is because the state of faith is a state in which the ear to be heard is not held.

従って、先の立和社会へ至る人類は、数える程に減少していたことと思われるからである。 Therefore, it seems that the humanity that led to the previous Tachiwa society had decreased to the point of counting.

そして、先の彼等の出現により、2500年前の約束事であるエフライムの木の成就、および、0次元界への贖罪・寺の人の復活が、成就されることになると思われる。 And with the appearance of them, the fulfillment of the Ephraim tree, which was the promise of 2500 years ago, and the Atonement to the zeroth dimension and the resurrection of the people of the temple will be fulfilled.

彼の手順を踏まされた運命下の出生により、出エジプト・紅海の2分の写し鏡行為である創造の主体の約束であるエフライムの木の成就・陸の2分による未だ荒らされざる荒野の出現成就等々を我々は、近未来において、報道体験を得ることになると思われる。 Due to his fateful birth following his steps, the undeveloped wilderness still remains due to the fulfillment of Ephraim's tree, the promise of the subject of creation, which is a two-minute mirror action of the Red Sea, and the two minutes of land. We believe that we will have a media experience in the near future.

富士山火山活動の小規模活性化の開始・政府による同山爆発時の避難訓練の定期的実施の開始・関東大震(既に、2005年 震度5の地震は、関東で、起きている。)災の再来(20分〜30分にも及ぶ、短長、両周期地震動による高層ビル・立橋の底層部分への金属疲労の影響・耐震偽装設計による不耐震構造ビルからの事前退去事件など)を予告される方々が、様々な分野で、増えて来ているのも、その準備時期と、個人的妄想内で、一人危惧している。 Start of small-scale revitalization of Mt. Fuji volcano activity ・ Start of periodic evacuation drills by the government during the explosion of the mountain ・ The Great Kanto Earthquake (An earthquake with a seismic intensity of 2005 has already occurred in the Kanto region) (20 to 30 minutes, short and long, the effects of metal fatigue on the bottom layer of high-rise buildings and standing bridges due to double-period ground motions, pre-exiting cases from earthquake-resistant structural buildings due to seismic disguise design, etc.) The number of people being foretold is increasing in various fields, and one person is concerned about the preparation time and personal delusions.

なぜ、紅海大の世界の何処かの陸が、2分されなければならないのか?これにより、個人的妄想内では、理解できた。 Why do some land in the Red Sea University world have to be divided in two? This allowed me to understand within my personal delusions.

なぜ、毎年、億単位の赤字まで、抱える空港・港が、地方に至るまで、林立されたのか?これにより、個人的妄想内では、理解できる訳である。 Why are the airports / ports that we have, up to 100 million deficits every year, all the way to the provinces? As a result, it is understandable within the personal delusion.

ところで、先の寺の人の復活により、日本は、前記侵略から、抜け出すことになると思われる。 By the way, with the resurrection of the people of the previous temple, it seems that Japan will escape from the invasion.

以前、数ある預言研究書の中で、過去の史実記録に、中世フランス、アンゴルモア地方の貧農による農村一揆で、これに成功した首領が、その地域の公的政治の権力の座に、就いた直後、自らを、グラン・サタン(大悪魔)と名乗り、悪政(強盗・放火・虐殺・輪姦・暴動)を指揮した記録事史があると言う旨の記述を 読んだ記憶があるが、恐らく、前記封印 再開封後の何時の日かに、穀物不作による飢饉、疫病、もしくは、震災による環境の変化が、これを世界的規模にまで拡大した類似のパターン行為として、歴史形成されて行くものと思われ、死と復活の神からの啓示として書かされたと思われる有名な4行詩は、使命を帯びた未来の彼の息子により、今後、再び、正しく復活して来ることになると 思われるからである。 Previously, in a number of prophecy studies, past leaders who succeeded in the history of historical records in a rural village by poor farmers in the Middle Ages of France and Angolmore took the place of the power of public politics in the region. Immediately afterwards, I read a statement that there was a record history that called myself Gran Satan (the Great Devil) and commanded the villainy (robbery, arson, slaughter, gangbang, riot), but perhaps Sometime after the re-sealing, the famine due to crop failure, the plague, or the environmental change due to the earthquake will form a history as a similar pattern action that has been expanded to a global scale. The famous four-line poem, which seems to have been written as a revelation from the god of death and resurrection, will be resurrected again in the future by his future son with a mission. Because.

彼の2つの手紙は、近未来に現れる2人への手紙であったことを、推定理解できる。 It can be presumed that his two letters were letters to two people who will appear in the near future.

つまり、「息子への手紙」が、未来出現予定の彼の息子(正統解読者)への手紙であり、「アンリ2世への手紙」は、同未来に十字架上で、屠られるであろう子羊へ宛てた、550年以上を超えた、彼へのラブレターであった事が、その冒頭文面から、判断されるからである。 In other words, "Letter to son" is a letter to his son (orthodox) who will appear in the future, and "Letter to Henri II" will be slaughtered on the cross in the future It is because it is judged from the opening sentence that it was a love letter to him over 550 years that was addressed to the lamb.

本推定認識は、今後の歴史形成予測との整合性(過去の人に、手紙は、送れない。未来の人に、手紙を、送り、読んで貰ら得る と言う事実。)とも、一致することになると思われ、個人的妄想内では、理解できる訳である。 This presumed recognition is consistent with the future prediction of history formation (letters cannot be sent to the past. The fact that letters can be sent and read to future people). It can be understood, and can be understood within the personal delusion.

全4行詩中、年月が、記載されている唯一の一遍の詩は、歴史的に、過去の歴史よりも、極めて大きな意味合いが、込められていると考えるのは、考え過ぎだろうか? Is it too much to think that the only single poetry that has been written in all four lines of poetry has a greater meaning in the history than in the past?

1999年7月モンゴル《世界の名だたる国々の首相、大統領が、この時期この地に彼の誕生を 祝うかの様に集結させられている。また、同年同月前後の6月8月に東西(ボスニア・インドネシア)の各紛争が連合国・国連監視の下、勃発し、終結している》に、創造の主体よりその出生を、許された人物《後に、グラン・サタン(大悪魔)と名乗るであろう政治権力者》と2018年以前の何れかで、彼らは、彼(満18才前後以下の世界的異能政治統率青年)と戦うことになると、個人的に妄想し、恐れている。 July 1999 Mongolia << Prime Ministers and Presidents of world-renowned countries are gathered here as if celebrating his birth here. Also, in June and August of the same year, the East and West (Bosnia and Indonesia) conflicts broke out and ended under the supervision of the Allies and the United Nations. They will fight him (a globally talented youth who is under 18 years old), either as a person, a political authority who will later be called the Grand Satan, or before 2018. When it comes to it, I personally delusion and fear.

その頃は、新・旧両聖書は、焚書扱いを 強いられると思われる。 At that time, it seems that both the New and Old Bibles will be forced to deal with books.

何故なら、いにしえのヘビである彼に、勝利する事が出来るのは、遠い未来に、十字架上で屠られるであろう子羊、唯、一人だからであるからと 個人的妄想内で、一人危惧している。 The reason why he can win against the ancient snake is a lamb who will be slaughtered on the cross in the distant future. Yes.

彼を 識別すべき特徴は、黙示録に記載されている様に、富・知恵・勢い・磔刑死が、識別し得る特徴と思われる。彼には、勢いの因子・磔刑死・膨大な養子の不連続体と因子が、その命式中に、存在するため、その獲得因子構造ゆえ、前記10万倍の進化が、本地球に、齎されることになると思われる。 The characteristics that should identify him are the characteristics that can be identified as wealth, wisdom, momentum, and death from death, as described in the Apocalypse. He has a momentum factor, death from death, a huge number of adoptive discontinuities and factors in his life, and because of the acquisition factor structure, the 100,000-fold evolution has been It will be deceived.

「聖書の始めに、」創造の主体は、エデンの中央で管理していたヘビに、狡猾な違反行為に対して、「彼は、おまえの頭を踏み砕き、おまえは、彼のかかとに、かみつく。」とはっきりと、しかも、唐突に「彼」を出現させ、述べているからである。 “At the beginning of the Bible,” the creator of creation responded to a criminal offense against a snake that was managed in the center of Eden: “He crushes your head, and you are on his heel. "It bites." Clearly, and suddenly "he" appears and states.

(「かかと」とは、留守宅、および、留守国家と思われ、この事からも、日本は、1時的に、占領されると思われる。何故ならば、その方法は、創造の主体が、定めた、彼のやり方だからである。) ("Heels" seems to be an absence home and an absence country. From this, it is thought that Japan will be occupied temporarily. Because it is his way.)

「聖書の終わりに、」いにしえの昔、エデンの園の中央部で、情報管理していたと思われるヘビ=いにしえのヘビ=年を経たヘビ である「おまえ」、つまり、グラン・サタン(大悪魔)が、前記創造の主体が、唐突に、御宣告された約束事どおり、創造の主体が、自ら宣告して置いた「彼」によって、結果的に、「おまえ」自身の頭を踏み砕かれ、これらの定められた大歴史の一節が、終焉することになると、個人的妄想内では、想像できる。 “At the end of the Bible”, in the middle of the garden of Eden, in the middle of ancient times, the old snake that seems to have managed information, the old snake “you”, that is, Grand Satan (the Great Devil) ) However, the subject of creation suddenly, as promised to be declared, the “subject” of the creation of the subject of his creation, and as a result, crushes his head. You can imagine in your personal delusion that these established passages of history will end.

その様に、重要な「おまえ」の出現で有る為、かの詩編1編のみに、創造の主体により、敢えて、年月を、入れさせた重要な、メッセージの詩編と思われるからである。 In this way, because it is the emergence of an important “you”, it seems that it is an important message psalm that has dared to put in the psalm one by the subject of creation.

また、聖書の始めの創造の主体が言う「彼」、私見の『聖書の終わりの「未来に屠られるであろう子羊」』とは、恐らく、人の祖であるアダムの生まれ変わりではないかと思われるが、良くは、解らない。 Also, the “he” who is the subject of creation at the beginning of the Bible, and the personal “the lambs that will be slaughtered in the future” at the end of the Bible, are probably the reincarnation of Adam, the father of man. I do not understand well.

この、大歴史の一節が、人の原罪(歪んだ自魂体)の修復期間として、設けられた葛藤期間であったことを、人は、皆、体験し、2020年、一つの感慨に、耽ける事に なると思われる。 Everyone experienced that this passage of great history was a period of conflict established as a restoration period for the original sin of a person (distorted self-soul body), and in 2020, in one impression, I think it will make money.

また、前記封印 再開封後の何時の日かで、前記天候不順の頃、日本は、輸入依存から自給自足の食糧供給国家に、変化していることが、望まれる。 In addition, it is hoped that Japan changes from a dependency on imports to a self-sufficient food supply nation at some time after the re-sealing of the seal and when the weather is bad.

また、前記封印 再開封前迄には、各人が、次元大幅上昇に耐え得るよう、各宗派の救罪力を、創造の主体自身により、格段に、引き上げられると思われる為、各宗派の門前には、日々大勢の縁ある方々の参拝・心体魂体治癒行為の行列が、でき、報道されることになるだろうと思われる。 Also, by the time the seal is reopened, each denomination's guilty power is thought to be dramatically raised by the subject of creation so that each person can withstand a significant increase in dimension. In front of the gate, a procession of worship and psychosomatic healing of a large number of people every day will be made and will be reported.

だからと言って、言論の自由を許す日本国やその世間を 恐怖や不安に陥れる悪意は、毛頭無い。検証のための時は、充分に、まだ有るし、前代未聞・荒唐無稽な本私見は、個人的妄想を中心としたものであり、確実性を著しく欠くため、世間の片隅に、ひっそりと置かれていれば良い。当然、実現しないだろうし、しない方が、良いに決まっている。真ともな方は、無視して頂くか、大馬鹿者として、陰で嘲笑って頂ければ、本妄想の1部の責任が、取れると思われ、実に、有り難い。 That being said, there is no bad intention of falling into fear and anxiety in Japan and its world that allow freedom of speech. At the time of verification, there is still enough, unprecedented and unpredictable book-keeping is centered on personal delusions, and because it lacks certainty, it is placed quietly in one corner of the world. Just do it. Naturally, it will not be realized and it is better not to do it. If you can ignore the truthful person, or if you can laugh in the shade as a foolish person, you will be able to take responsibility for a part of this delusion.

ただ、「備えあれば、憂い無し」の格言も、本妄想にも当てはまる事は、極めて遺憾ながら 事実でも ある。 However, it is extremely regrettable and true that the saying “If you prepare, there is no sorrow” applies to this delusion.

大勢の他人の生命危機に関わらない妄想に基づく未来予測は、本来、個人で楽しむものであり、公開すべきものでは、無いと思うからである。 This is because the prediction of the future based on the delusions that are not related to the life crisis of many others is inherently enjoyed by individuals and should not be disclosed.

全ては、人ではなく、時の経過である歴史が、過去の史実同様、冷静、沈着、および、公平に、裁き、結論を出して頂けるものと、一人信じ、ひっそりと時の推移を見守っている。 Everything is not a person, but the history of time, just like the historical facts, can be judged, settled, and fairly, just to judge and draw conclusions. Yes.

歴史は、人の命掛けや猛烈な努力も含んだ上で、既に、大方、もしくは、中心部分は、実に正確に 定まっていると思われる。歴史を築かんと欲する者は、歴史に、参加する事が、許され、幾ばくかの 徳を 積めるだけである。 The history, including human commands and intense efforts, seems to have already been determined in a very precise manner. Anyone who wants to build history is allowed to participate in history and only accumulates some virtue.

また、人の身体の命は、絶対だと言い切る凝り固まった現代唯物観思想は、身体のみの命の死刑を廃止すると言う、肉の目を通した人の身体存在のみに、何処か、片寄った文化文明しか生み出さない。   In addition, the hard-thinking modern material thought that the life of a person's body is absolute has somehow shifted only to the existence of the person's body through the eyes of the flesh, saying that the death penalty for the life of the body only is abolished. Only produces cultural civilization.

人の身体の存在形態は、自然法則下の中の1生物形態でしか過ぎない。 The existence form of the human body is only one biological form under the laws of nature.

それを、絶対視するのは、1自然法則すら、創造できずに居ながら、魂体・心体を無視した人の身体中心で、しかも、人間のみ優れた絶対的生物と言う奢りと身勝手な身体唯一主義と人間位上主義の世界観でしかないと思われる。   The absolute view of it is that even one natural law can not be created, but it is centered on the body of a person who ignores the soul body and mind body, and only human beings are ridiculous and selfish. It seems that it is only a view of the world of body uniqueness and humanism.

いずれにせよ、何時の時代でも、この世に、生を受ける様に、小川に、落ちた1枚の葉根枯れ葉は、歴史の大河へと辿り着き、この大河の中で押し流され、浮き沈みしながら、海の腐葉土を 目指すことにより、魂体・心体の歪み修復の1向上を果たす1枚の完全な枯れ葉の様な存在にしか過ぎないのが、人間、および、人の身体と思われる。   In any case, the fallen leaf of a leaf that has fallen into a stream reaches the historical river, and is swept away in the river, rising and sinking. By aiming for the humus of the sea, it seems that the human body and the human body are nothing but the existence of a complete dead leaf that can improve the distortion of the soul and mind.

50年の歴史観で生き抜けば、弱肉強食・共生による命の連鎖・種の存続による身体の命の大切さに重きを置き、500年の歴史観で生き抜けば、天啓の重要性を理解し、天への心体の従順な誠意を形成でき、5000年の歴史観で生き抜けば、天意に逆らう行為が、魂体の歪みを生み出し、謂れ無き迫害による歪みの矯正期間を受けることを理解する。 If you survive with 50 years of history, you will focus on the importance of life by weakness, strong food, symbiosis, and the life of the body through the survival of species. If you can form obedient sincerity of the mind and body and survive through the 5000-year view of history, you will understand that the act against objection causes distortion of the soul body and undergoes a correction period of distortion caused by so-called persecution.

また、それとは逆に、天意に従順な行為が、魂体の強化を生み出し、思いがけない幸運と その欠点である均質・均等の甘えん坊体質の魂体の気質を1民族が、既に身につけていることにも気が付く。  On the other hand, the act of obedience to obedience creates a strengthening of the soul body, and one ethnic group has already developed the soul body temperament of an unfortunate fortune and its homogeneity and equality. I also notice that.

(論述を元に戻す) また、図1において、
前記両組融合画像情報dと輻輳融合画像情報図bbが、両立・共存した、両離輻輳融合画像情報bbとd内にできる「空間突出度画像情報」dは、単独で、形成された「空間突出度画像情報」図2のdよりも約1割ほど、横方向に圧縮されている。(背景となっている大ピラミッドdが、横に縮まっている)
(Return the discussion to the original) Also, in FIG.
“Spatial protrusion image information” d formed in both separated convergence image information bb and d, in which both sets of fused image information d and the convergence fused image information diagram bb are compatible and coexisted, is formed independently. Spatial protrusion degree image information "is compressed in the horizontal direction by about 10% from d in FIG. (The large pyramid d in the background is shrunk horizontally)

これは、両組融合画像情報dと輻輳融合画像情報bbが、両立・共存しているため、そこから生まれた「空間突出度画像情報」dも、輻輳融合画像情報bbの影響下にあるためと思われる。   This is because both sets of fusion image information d and the convergence fusion image information bb are compatible and coexist, and thus the “spatial protrusion degree image information” d produced therefrom is also under the influence of the convergence fusion image information bb. I think that the.

つまり、輻輳融合画像情報bbは、画像情報形成時に、約1割ほど、横方向に圧縮する癖を、持っていることを示し、この癖により、鋭利なものは、より鋭利に捕えることに、結びつく。このことは、輻輳融合画像情報形成能力は輻輳角により注視点を形成しなければならない領域(目前領域)が、生態にとっては、生命の危機に繋がる領域と重なっていることと大きく関係していると思われる。   That is, the convergence fusion image information bb indicates that the image information is formed, and has about 10% of wrinkles that are compressed in the horizontal direction. By this wrinkle, sharp objects are captured more sharply. Tie. This is largely related to the fact that the convergence fusion image information formation ability overlaps with the area that leads to the crisis of life for the ecology, the area where the gaze point must be formed based on the angle of convergence. I think that the.

つまり、生態は、この領域に、存在する「もの」は、何であるかを、明確に即、認識できなければ、生態危機のための、次の行動が、取れずに(四方八方どちらに身を避けるかの判断と 行動。殆ど、条件反射に近い領域でもある。)いるため、生態危機の状態と生態内の混乱(アドレナリン大量分泌よる交感神経系の興奮状態継続)が、続くことになるため、大至急で、個々の輻輳融合画像情報bbとの融合により全体の輻輳融合画像情報(dの1割横圧縮)が、形成されることになると思われる。 In other words, if the ecology cannot clearly recognize immediately what is the “thing” that exists in this area, the next action for the ecological crisis cannot be taken (either in all directions). (This is also an area close to the conditioned reflex.) Therefore, the state of the ecological crisis and the disruption in the ecology (continuation of the excitatory state of the sympathetic nervous system due to massive secretion of adrenaline) will continue. Therefore, it seems that the entire convergence fusion image information (10% lateral compression of d) will be formed by merging with the individual convergence fusion image information bb.

ご存知のように、交感神経系の興奮状態とは、心臓・血管・虹彩・気管支・消化器・汗腺の活性化状態を指し、意志の支配を受けずに、即、条件反射運動開始体制に入れる状態である。   As you know, the excited state of the sympathetic nervous system refers to the activation state of the heart, blood vessels, iris, bronchus, digestive organs, and sweat glands, and immediately enters the conditioned reflex start system without being controlled by the will State.

従って、遊技場などの 強い立体感を 提供する立体映画館で、子供から大人まで、共通して、興奮するのは、この意志の支配を受けない、交感神経を、刺激する生態の機能に、縁る興奮を、ベースとして 映像情報内容の要素から、意志が、簡単に驚き再興奮・感動するものと思われる。   Therefore, in a 3D movie theater that provides a strong 3D feeling such as a game hall, it is common for children and adults to get excited about the ecological function that stimulates sympathetic nerves that are not subject to this will. Based on the excitement of the relationship, the will will be easily surprised, re-excited and moved from the elements of the video information content.

従って、他の4感覚(聴覚、触覚、味覚、嗅覚)も、この輻輳角を起こす領域内で、実現し、生態に、近づくほど、交感神経を、刺激することになり、この生態の機能が、強く働き、人は、意志とは関係なく たやすく興奮する状態に なると言える。 Therefore, the other four sensations (auditory, tactile, gustatory, and olfactory) are also realized in the region where the angle of convergence occurs, and the closer to ecology, the more sympathetic nerves are stimulated. Working hard, people can easily get excited regardless of their will.

もちろん、この生体機能は、神経系と強く結びついているため、神経系の麻痺による興奮状態の減衰が、すぐに伴う、いわゆる馴れと疲れである。   Of course, since this biological function is strongly associated with the nervous system, attenuation of the excited state due to paralysis of the nervous system is immediately accompanied by so-called familiarity and fatigue.

従って、興奮状態を、長く維持するため、もしくは、効果的に、興奮状態レベルを一定量得るためには、長時間の輻輳角使用領域での立体画像情報は、不向きと思われる。
事実、30分以上の、強い立体感映像情報は、生体機能が、疲れるような神経信号を、作り出し、継続できないように、働いてくる、特異な生態状態といえる。
Therefore, in order to maintain the excitement state for a long time, or to obtain a certain amount of excitement state level effectively, it is considered that stereoscopic image information in a long convergence angle use region is unsuitable.
In fact, strong stereoscopic image information of 30 minutes or more can be said to be a peculiar ecological state in which the biological function works so that it cannot create and continue a neural signal that causes fatigue.

従って、輻輳角使用領域での立体画像情報提供は、短時間に、終了し、波状的に、提供することが、興奮状態を、長く維持でき、もしくは、効果的に、興奮状態レベルを一定量レベルで、落とすことなく確保し続けることが、できると思われる。 Therefore, the provision of stereoscopic image information in the convergence angle use area can be completed in a short time and provided in a wavy manner, so that the excited state can be maintained for a long time, or the excited state level can be effectively increased by a certain amount. It seems to be able to keep securing without dropping at the level.

同様に、他の4感覚(聴覚、触覚、味覚、嗅覚)も、この輻輳角を起こす領域内で実現するためには、短時間に、終了し、波状的に、提供することが、興奮状態を、長く維持でき、もしくは、効果的に、興奮状態レベルを一定量レベルで、確保できると思われる。  Similarly, other four sensations (auditory, tactile, gustatory, and olfactory) must be completed in a short time and provided in a wavy manner in order to realize the region where the convergence angle occurs. Can be maintained for a long time, or the excitement level can be effectively secured at a certain level.

波状的を、詳細すれば、各刺激レベルの度合いを、強、中、弱、休止に分け、「強→弱→強→弱→休止」「強→弱→弱→中→休止」等と 次第に、各刺激レベルを 落として行き、生態の生態内各刺激創造機能に各刺激を 引き渡し、生態自身に各刺激を、過去の体験刺激情報との想起結合により、各人の脳内で創造・体験してもらうことが、極めて、重要と思われる。 In detail, the level of each stimulus level is divided into strong, medium, weak, and rest, and gradually increases from “strong → weak → strong → weak → pause”, “strong → weak → weak → medium → pause”, etc. Each stimulus level is lowered, each stimulus is delivered to each stimulus creation function in the ecology of the ecology, and each stimulus is created and experienced in each person's brain by combining the stimuli with the past experience stimulus information. It seems to be extremely important to have them.

何故ならば、生態機能には、前記疲れるように導く神経刺激などの 拒絶機能が、備わっている。この拒絶機能は、長時間刺激や、自然界と不一致の刺激や、他の5感覚情報とのバランスの取れない刺激は、先天・後天による膨大な刺激情報との結合索による震いに 掛けられることにより発生して来るものと思われ、極めて精緻である。 This is because the ecological function has a rejection function such as nerve stimulation that leads to fatigue. This rejection function can be applied to a long-term stimulus, a stimulus that is inconsistent with the natural world, or a stimulus that cannot be balanced with the other five sensory informations. It seems that it is generated by this, and it is extremely elaborate.

従って、ゲームセンターにおける、体験型刺激ゲーム機において、継続リピートが、次第に無くなるのは、該ゲーム機が、単調な刺激に終止し、個々の自然界条件と一致していないからと思われる。顧客の意志が、拒否しているのではなく、顧客の拒絶機能が、継続することを止めさせている、と言うのが、正しいと思われる。 Therefore, in the experience-type stimulation game machine at the game center, the continuous repeat is gradually disappeared because the game machine ends up in a monotonous stimulus and does not match the individual natural world conditions. It seems correct to say that the customer's will is not refusing, but that the customer's refusal function stops it from continuing.

従って、体験型刺激ゲーム機の、不参加の理由を 顧客自身に、アンケートを取ったところで、直接的には 真因は、掴めないと思われる。何故なら、不参加の理由は、 顧客自身の意志に基づかない選択だから、明確に、答えようがないからである。 Therefore, after taking a questionnaire about the reasons for non-participation of experience-type stimulation game machines, it seems that the cause cannot be directly grasped. This is because the reason for non-participation is a choice that is not based on the customer's own will, so there is no clear answer.

余談ではあるが、人は、他人によって支えられているからこそ、「人」と言う字が、当てはまると、教えられてきたが、しかし、私的利害が、発生すれば、立ち所に、瓦解する、軟弱な教えでもある。
しかし一方、もう一人の他人とは、生態機能の意志の指摘が、不足しているように思われる。
As an aside, people have been taught that the word “person” applies because they are supported by others, but if private interests occur, they will be deconstructed It is also a weak teaching.
On the other hand, however, it seems that there is a lack of indication of the will of ecological function with another person.

生まれながらの我々の自我意志を、影ながら、命賜った時から暖かく、精密に、支えてきてくれた下積みのみの別人格の意志こそ、今日、日の目を見、第一に、感謝すべき人格者と、人の英知により捕え、認識することが、大切だと思われる。 余りにも、身近すぎるため、その存在に気づかず、誰も教えてくれなかった無口で、下積みのみの意志ある御仁。   In the shadow of our self-will, our willingness to support the warmth, precision and support from the time we gave us our life is the personality of our personality that only supports the first thing. It is important to catch and recognize by the wisdom of the person and the person. It is too close to me, so I didn't notice its existence and no one told me.

「人」と言う字が、一字なら、支えてくれている下積みのみの他人も、また、一身体の中にいると解釈したほうが 自然であり、「人」とは、一身体の中で、我々の自我意志と、生態機能の意志の、2つの意志が、互いに、助け合う関係が、あるべき姿と思われる。 我々の自我意志は、生命維持という共通目的を持つ 生態機能意志の下積みのみの人格を、余りにも無視し続け・忘れ続けて、今日まで 来ているように思われる。
そこから、出発して、外界の人様の恩に、感謝・報恩を捧げることは、力強い思い・力強い行為に結びつくよになると思われる。
If the word "person" is a single character, it is more natural to interpret other people who only support the lower layer as being in one body. It seems that there should be a relationship in which the two wills, our ego will and the will of ecological function, help each other. Our ego will seems to have come to this day, too, ignoring and forgetting the personality of only the ecological function will with the common purpose of life support.
From there, it seems that giving a gratitude and reward to the gratitude of the people of the outside world will lead to powerful thoughts and powerful acts.

本明細書での根底にある生態機能の意志の具体的発信源は、睡眠欲・性欲・肉食などの食欲、および、闘争欲を司る爬虫類脳(進化論的には、人は、爬虫類は、経験していない。脊椎類脳と呼称すべきと思われるが、ここに、後述する創造の主体の形而学上の配慮を感じる。)と、それに続く呼吸を司る間脳、その下の交感・副交感神経が、巻き付いた延髄・脊髄を 指す。(以下、これを本明細書では、爬虫類脳動物と呼称する)   The specific source of the will of ecological function in this specification is the appetite such as greed for sleep, libido, and carnivorousness, and the reptile brain that governs the desire for struggle (in terms of evolution, humans, reptiles, experience I think it should be called the vertebral brain, but here I feel the metaphysical consideration of the subject of creation, which will be described later.) The parasympathetic nerve refers to the wrapped medulla and spinal cord. (Hereinafter, this is referred to as a reptile brain animal in this specification)

我々の意志は、大脳新皮質の前頭葉・前頭連合野にあり、好き・嫌いの感情を発する哺乳類脳(大脳辺縁系)を隔壁として、爬虫類脳動物と、日々葛藤しながら、何とか共存している。 Our will is in the frontal lobe and frontal cortex of the cerebral neocortex, and the mammalian brain (cerebral limbic system) that produces feelings of likes and dislikes is used as a septum, coexisting with reptile brain animals every day, coexisting somehow Yes.

つまり、人は、爬虫類脳動物の上に、理性の壁で囲まれた家を建て、その家内で、感情の哺乳類動物を 愛玩しながら、住んでいるようなものである。 In other words, people are like building a house surrounded by a wall of reason on a reptile brain animal, and living in it while petting an emotional mammal.

「道」と言う、漢字は、この姿を、象徴的に、現している。人の道とは、道そのものが、示している様に思われる。 The kanji, called "Michi", symbolizes this figure. It seems that the road of the person shows the way of the person.

自身、この道を外す人・歴史(天意)に逆らう人は、魂体・心体が、「しんにょう」のみの姿で、何千年と生き、天への畏れを訓練しなければならない極めて、厳しい世へと、移行して行くと思われる。  The person who goes out of this way, the person who goes against the history (genius), has a soul body and mind body that is only "Shinyo", has to live for thousands of years, and must train to fear to heaven. It seems that it will shift to the world.

10数年に渡り、国のエージェント・他国も行っている秘密の期間(事前情報取得者は、恩を仇で返す敵対的事前関連権利設定行為や後出しジャンケンの権利設定権利は、持ち得ない事が、暗黙の人の道でもあるが、守られていない)をも巻き込み、留守宅から恒常的に個人・特許両情報を、持ち去り、留守宅内に有る重要年月日情報・他の重要情報を、何度となく巧みに改ざん、消去し、実験用機器・プリンター機器・フレキシブルディスク器具・1部の窓ガラスの施錠下端の破損・玄関増設鍵を、巧みに不能とさせ、自宅に入室できない経験も積まされ、出願、その他の遅れ・錯誤を巧みに誘い、また、ワードプロセッサー・パーソナルコンピューター・冷蔵庫・携帯電話機器に、巧みに仕掛けられたプロ仕様超小型盗聴器、局番録音40〜60秒作動指示電波発信器、および、通常携帯とは別のプロ仕様通信回線無音対応位置情報発信器は、外すには、特殊工具が、必要なため、本明細書執筆中の現在も、本機内で、元気に電波発信中である。 Secret period that national agents and other countries have been conducting for more than 10 years It is also a way of an implicit person, but it is not protected), and both personal and patent information is taken away from the home away from home, and important date information and other important information in the home. Skillfully tampered with and erased the information over and over again, lab equipment, printer equipment, flexible disk appliances, breakage of the lower end of the lock on one part of the window glass, and the entrance extension key are skillfully disabled and enter the home. Inexperienced experience, skillfully inviting applications, other delays and errors, and professionally-developed professional micro eavesdroppers, area code recording 4 on word processors, personal computers, refrigerators and mobile phone devices ~ 60 seconds operation instruction radio wave transmitter and professional communication line silence compatible position information transmitter, which is different from normal mobile phone, requires a special tool to remove. Radio waves are being transmitted in the unit.

本明細書記載の「1画素部1万華鏡構成のRGBで3つ巴型形成し、総輝度総量内で、各自1巴内輝度位置を自由移動する輝度発光方式」(図38)のアイデアも、2005年夏、留守自宅より、彼らにより情報窃盗されている。   The idea of “a luminance light emission method in which three pixels are formed in RGB with a one-pixel unit 10,000 kaleidoscope configuration and each individual luminance position is freely moved within the total luminance amount” (FIG. 38) described in this specification, In the summer of 2005, they were stolen from their home away from home.

また、他の実験用原版も、委託業者の事務所から、1時的に、情報粉失した。   Also, other experimental masters were temporarily lost from the contractor's office.

昨年夏の情報窃盗により、興信所のことを、ご忠告しても、しかし、彼らからの返答は、昨年秋の10月17日〜11月25日の日昼、12月3日は、徹夜の部 所長直接張り込みによる24時間体制であり、本徹夜の部は、12月8日(何故か偶然にも、あるメーカーの商品回収のテレビコマーシャル開始日前日と同じ日であった)迄、続いた。今は、定期的盗聴情報と郵便物の情報閲覧回収(2006年2月4日、父からの手紙も、開封され、情報窃盗された後、巧みに再封印され、共同出入り口ポストへ戻された。「何度も、申し上げている様に、お止め頂きたい」)に推移している状態であり、何時、本再開されるかは、解らない。 Even though I was advised about the Shinseki office by information theft in the summer of last year, the response from them was from October 17th to November 25th of the last autumn and December 3rd, all night. The department manager's direct 24-hour system lasted until December 8th (for some reason it was the same day as the day before the start of the TV commercial for a manufacturer's product collection). Now, periodic eavesdropping information and postal information browsing collection (February 4, 2006, a letter from my father was also opened, information was stolen, skillfully resealed, and returned to the joint doorway It is in a state of transition to "Please stop as if I have said many times"), and I do not know when this will be resumed.

彼らに、住居進入・情報改ざん、同消去の妨害工作・情報窃盗・情報機器類の破壊・情報類紛失・家族、プライバシー情報の侵害・特許情報主権の侵害の許可を、10数年に渡り、与えた覚えは、大馬鹿者を自認している身ではあるが、記憶には、無論ない。   For over 10 years, they allowed permission to enter homes, falsify information, sabotage of the deletion, information theft, destruction of information equipment, loss of information, family, infringement of privacy information, infringement of patent information sovereignty, The memory I gave is self-affirmed as an idiot, but it's not a memory.

立場が、逆であれば、本発明者は、間違いなく、当業界から16年以上は、確実に、追放されるはずである。   If the position is reversed, the inventor will definitely be expelled from the industry for over 16 years.

そして、その悪意により、前代未聞の刑事事件・商品に関する事件を、その執行部全体が、被ったことを確認させて頂いた。 And, due to the bad faith, I was able to confirm that the execution department as a whole suffered an unprecedented criminal case and a case concerning a product.

先の各事件は、創造の主体からの、警告と思われる。   Each of the previous cases seems to be a warning from the subject of creation.

既得特許、および、他の出願中の特許も、同様の社会的構造下にあることは、言うまでもない。   Needless to say, patents already granted and other pending patents are also under a similar social structure.

2005年6月25日付けのテレビ朝日放送「人の脳に潜む爬虫類脳暗号」と言う番組で、悲しい事に、人類史は、過度の睡眠欲・性欲、および、食欲を 抑圧せんとして、古代文化文明(宗教・哲学〜芸術・劇場全般)と行き過ぎた中世暗黒時代を経過し、この反動から、これを開放せんとして発展してきた現代文化文明が続き、今や、行き過ぎた開放の弊害(国家による世界大戦)を、被らんとする現実社会と直近の近未来社会を迎えようとしている旨の放映がなされていた。   A TV Asahi broadcast dated June 25, 2005, called "Replies Brain Codes Hiding in Human Brains", sadly, human history is an ancient anti-hypertensive sexual desire and an appetite suppression. After a period of medieval darkness that has gone too far with cultural civilization (religion and philosophy-art and theater in general), this reaction has led to modern cultural civilization that has developed as a liberation, and now the evil of excessive liberation (depending on the state) World War) was being broadcast to the effect that it was going to welcome the real society and the near future society.

Oリング検査、および、多数のダウジングロッド調査による紛失タイムカプセルの発見例でも解かるように(彼らは、両手内の特定事象を、内界通信手段で、その関連する情報として得る事を、得意としていると思われる。)、一般的な我々の意志と、爬虫類脳動物の意志は、哺乳類脳を隔壁としているため、同じ脳内に、お互いが、納まっていながら 直接交信ができずにいる。 As can be seen from the discovery of lost time capsules by O-ring inspection and numerous dowsing rod investigations (they are good at getting specific events in both hands as related information through internal communication means. The general will of ours and the will of reptile brain animals use the mammalian brain as a septum, so they can't communicate directly with each other in the same brain.

また、哺乳類脳の意志は、哺乳類脳が、約3〜4才児の知能をもつため、極めて簡単な言葉を喋ることが、できると思われる。それが、胸や腹の中から、聞こえる心の声=弱い心の声・悪い心の声・誘惑する心の声・協調する心の声・笑いの心の声・決意する心の声など として認識され、我々の前頭連合野意志と 心体の言葉で、交信できることになるが、爬虫類脳動物の意志は、爬虫類脳が、一見知能レベルが、低いため極めて簡単な言葉を、喋れず、心の声として、認識され難いため、我々の前頭連合野意志と交信できない条件下にある。   Also, the will of the mammalian brain seems to be able to speak very simple words because the mammalian brain has the intelligence of about 3-4 years old children. It is recognized from the chest and belly as the voice of the heart that can be heard = the voice of the weak heart, the voice of the bad heart, the voice of the temptation, the voice of the heart of cooperation, the voice of the laughter, the voice of the mind of determination We can communicate with the words of our frontal alliance and mind body, but the will of the reptile brain animal, the reptile brain, seemingly low intelligence level, can not speak very simple words, voice of heart As it is difficult to be recognized, it is in a condition where it cannot communicate with our frontal alliance.

つまり、この2つの条件下のため、多くの根本的な誤解に基づく、対立概念関係下の数千年間に渡る歴史が、先の番組からも理解できるように、繰り広げられて来たことになる。 In other words, because of these two conditions, the history over thousands of years under conflicting concepts based on many fundamental misunderstandings has been developed so that it can be understood from the previous program. .

この誤解を解ける能力は、我々の意志側にあり、義務でもある。彼らには、この件に、限り、それを解決すべきレベルまでの能力を持ち合わせていない様に思われる。 The ability to solve this misunderstanding is on our will and obligation. It seems to them that, as far as this matter is concerned, they do not have the ability to solve it.

結論から述べると、我々の意志と彼らの意志は、対立概念の関係下になく、深いお詫び・相互感謝と愛情返しの関係下にあると思われる。過度の中層の衝動である睡眠欲・性欲・肉食などの食欲、および、闘争欲は、彼らの深層の求愛衝動が、これを突き動かし、起こしている現象と思われる。彼らは、過度に中層の睡眠欲・性欲・肉食などの食欲、および、闘争欲を、突き動かす事により、我々に、社会的マイナス価値を与えることで、我々が、自身を見つめ直し、彼らの存在に、気づき、彼らに 直接詫びて、感謝し、愛して欲しいから、彼らが、直接 扱える中層の衝動を 駆使し、我々に様々な 社会的マイナス価値を、我々に、深層の背後から、選択させ、様々な不幸を、齎し、我々に、数千年間に渡り 気付きの信号情報を 与えて続けて来たと思われる。
また、過度の中層の睡眠欲・性欲・肉食などの食欲、および、闘争欲が、満たされれば、我々からの「愛情返し」未受理の代償として、その行為そのものに、1時凌ぎの、代替えの喜びが、含まれている為、益々、我々を背後の深層から、その様な衝動行為に、積極的に走らせようとして、不幸現象顕在化前提の環境作りが、日々、彼らにより、営々と構築されて来たことになる。
From the conclusion, it seems that our will and their will are not in a relationship of conflict, but in a relationship of deep apology / mutual appreciation and affection. Appetite for sleep, libido, carnivorous eating, etc., which are excessive middle-level urges, and struggle for struggle are thought to be the phenomenon that their deep courtship urges drive and cause. They give us a negative social value by driving excessive appetite for sleep, libido, carnivorous, etc. and struggle for struggle. I want them to be aware of their existence, directly apologize to them, thank them, and love them, so they can make use of the middle-class impulses they can handle directly, and select various social negative values for us from behind. It seems that he has continued to give various notices of misfortune and give us noticed signal information for thousands of years.
Moreover, if excessive appetite for sleep, libido, carnivorous and other appetite and struggle for struggle are satisfied, the act itself will be replaced by a surrogate replacement for the act itself as a price for our unacceptable return of love. Because of the joy of, the creation of an environment for the manifestation of the unfortunate phenomenon is continually being made daily by them in an attempt to actively run from the depths behind them to such an impulsive act. It has been built.

夏の恒例テレビジョン番組で、よく見かける不成仏霊が、当り構わず個人に、霊的障害を、与え不幸に貶め、成仏したときの加害理由と 実によく似ている。   The infidel Buddha spirit often seen on summer television shows is very similar to the reason for the harm when they gave up their spiritual disabilities and gave them unfortunately.

つまり、「自身を、救って欲しいから、同情心ある人に、長年に渡り、獲り憑き、深層界から不幸を 霊的に与えて続けて来た」と答える 飛んでもなく身勝手な 理由からである。彼らが、その訴願手段として、酒乱の先祖霊や 式神と結託することも充分考えられる。   In other words, “I want to save myself, so I have continued to give sympathetic people spiritually and unhappiness from the deep world for many years.” It is. It is quite possible that they would collide with an ancestral spirit of Shiran or Shikigami as a means of appeal.

また、現社会制度的類例では、社会的に強い立場の経営者に、同弱い立場の社員組み合員が、同強い立場の経営者を困窮させる(不幸にさせる)ために、彼らが、その訴願手段として、合法的ストライキ権を行使することにより、「自身の賃上げ要求を完遂する行為」と相通じる弱者の類似行動習性の理由からである。   Also, in the current social institutional example, in order to make managers with a weak social position to make managers with the weak position difficult (unhappy) for managers with the weak position, This is because of the similar behavioral habits of the weak, which can be said to be “the act of completing their wage increase request” by exercising a legal strike right as a means of appeal.

つまり、爬虫類脳動物の意志は、その脳発達の未熟さ・社会的幼稚さのままで、意志を発動するため、実に身勝手で・言葉を伴わない稚拙な衝動となって発せられ、我々は、その余りにも身勝手で・言葉を伴わない稚拙な事象故、数千年間にも渡り、彼らの真の理由を理解できずに来た。そして、彼らが、真に、欲しているものは、我々、特に、本明細書を、読んでいる あなた自身の前頭連合野意志から発信した心からの「お詫びと感謝と愛情返し」である。   In other words, the will of the reptile brain animal is issued as a selfish and irritating impulse without words, in order to activate the will with its immature brain development and social childhood, Because it was so selfish and unscrupulous, it has been difficult to understand their true reason for thousands of years. And what they really want is our sincere apology and appreciation and love return from our own frontal union will, who is reading this specification, especially.

不良少年が、求めているのは、両親の深い愛情であり、それを突き動かしているのは、彼の爬虫類脳動物が、発する自己存在主張の衝動と詫びと感謝と求愛衝動の言葉を伴わない意志と思われる。 What the bad boy wants is the deep affection of his parents, which drives his reptile brain animals with the words of self-existence urges, joys, appreciations and courtship urges. Seems not will.

また、裕福な家庭の子が、万引きを行うことを突き動かしているのも、彼の爬虫類脳動物が、発する自己存在主張の衝動と詫びと感謝と求愛衝動の言葉を伴わない意志と思われる。 It is also likely that the wealthy family's child is driving shoplifting, but his reptile brain animals will not be accompanied by words of self-existence urges, joys, appreciations and courtship urges. .

また、真面目に学業に、専念していた女子が、リストカットの真似事で、生きてる自分を確認したがる衝動を突き動かしているのも、リストの最奥に居る 彼女の爬虫類脳動物が、発する自己存在主張の衝動と詫びと感謝と求愛衝動の言葉を伴わない意志と思われる。 In addition, the girl who was seriously devoted to academics was imitating wrist cuts, driving the urge to confirm herself alive, because her reptile brain animals at the back of the list It seems to be the will without the words of self-existing urge, joy, appreciation and courtship.

また、インターネット自殺などの厭世感を突き動かしているのも、彼らの爬虫類脳動物達が、発する自己存在主張の衝動と詫びと感謝と求愛衝動の言葉を伴わない意志と 少なくとも幾らかが、深く関わっているものと予測される。   In addition, it is also driving the sense of mortality, such as Internet suicide, that at least some of their reptile brain animals deeply express their self-existing urges, apologetics, gratitude, and willingness without words of courtship urges. Expected to be involved.

また、浮気による離婚現象増加も同じ理由と思われる。 The same reason seems to be the increase in divorce due to cheating.

何故、言葉を伴わない自己存在主張の衝動と詫びと感謝と求愛衝動が、生じるかと言えば、彼らが、母のお腹で、我々と共に生を受け、我々と共に流行病を過ごし、我々と共に老いて、我々と共に死に至る迄、我々が寝ている間でも、自身は、寝ずに、我々に、呼吸を司ってあげ、自らは、寝ずに心臓鼓動を監視してあげ、その他5臓6腑の基幹生命活動を 寝ずに関わってあげながら、怪我・傷害の苦しみ、病の苦しみ、失恋の苦しみ、別離の苦しみ、老いの苦しみ、および、死の苦しみも、一方的に、我々から押し付けられていても、我々と 直接交信できないまま、耐えに耐えて、寝ずに生命維持活動に、勤しみ・共に、唯一心中してくれる、我々の父母や伴侶より深い我々への彼らの言葉を伴わない生命維持作業と愛情が、まず、先に存在しているためと思われる。 The reason why self-existence urges, joys, appreciations, and courtship urges occur without words is that they are born with us in the mother's stomach, live with us, have epidemics with us, and get old with us Until we die with us, even while we are sleeping, we do not sleep, we control breathing, we monitor our heartbeat without sleeping, and others While we are involved in the core life activities of Aoi, we suffer from injury, injury, illness, broken heart, separation, aging, and death. Even though they are not able to communicate directly with us, endure endurance, sleep and do life support activities, work together together, with their words to us deeper than our parents and companions. No life support and loving but first and foremost It seems to be because they Mashimashi.

その愛情表現の一つとして、彼らは、両手内の特定事象を、内界通信手段で、その関連する情報として得る事を、得意としていると思われるため、彼らなりの世界観から生まれた彼らなりの我々への愛情ある我々の過去・現在・未来に関する情報メッセージを彼らなりの言語文字により表現し 言葉を伴えない彼らからの その愛情表現方法が、得意領域である両手内の「手相」と思われる。   As one of their expressions of affection, they were born from their own worldviews because they seem to be good at acquiring specific events in both hands as related information by means of internal communication. We express information messages about our past, present, and future that are affectionate to us in their own language characters, and their love expression method from them without words is the “hands” in both hands I think that the.

彼らの先祖が、天上界のヘビに繋がっていると仮定できるため、手足を持たない元先祖が、我々の手足に愛着を持つことは、理解できる。   It can be assumed that their ancestors are connected to heavenly snakes, so it is understandable that ancestors who do not have limbs are attached to our limbs.

また、その意志表現方法として、手足を持たない表現手段として、口から日常発している二股の細い舌の触感が、その表現手段の基礎部分に大きく影響を与えるものと予測される。 In addition, as a means of expressing the will, it is predicted that the tactile sensation of the bifurcated thin tongue that is everyday from the mouth as an expression means without limbs will greatly affect the basic part of the expression means.

事実、手相は、細い舌の触感の束の連続として、表現されている様にも見受けられる。 In fact, the palm appears to be expressed as a series of tactile bundles of thin tongue.

また、掌内に表現されている指紋が、円・渦巻き模様を備えているにもかかわらず、同掌内の手相には、その模様は、見当たらず、大きな二股の細い曲線が、観察されるのは、単なる偶然なのだろうか?   In addition, even though the fingerprint expressed in the palm has a circle / swirl pattern, the pattern is not found in the palm of the palm, and a large, bifurcated thin curve is observed. Is that just a coincidence?

以上の様な、先の彼らの言葉を伴わない作業と深い愛情が存在している故、彼らの思春期を境として、自らの存在、自らの仕事、自らの宿命宿業作業、および、自らの言葉を伴えない意志に気づき・目覚め、その虐げられた宿命宿業作業の当然の対価として、我々からの強い自己作業の感謝と愛情返しを 彼らなりの身勝手で・稚拙で・乱暴な言葉を伴わない手段で、間接的・直接的に、訴えることを、欲し続け始める事が、深層の自己存在主張の衝動と「詫びと感謝と返愛」の訴願衝動として、我々の思春期に、起き始めてくると思われる。 Because of the above work without their language and deep affection, their existence, their own work, their own fateful work, and their own Recognizing and awakening the will that does not involve words, as a natural consideration for the abused fateful homework, thanks for our strong self-work and return of love, with their own selfishness, kindergarten, and violent language It begins to occur in our puberty as an impulse of deep self-existence assertion and an appeal of “pleasure and appreciation and rebirth” that we continue to desire to appeal directly and indirectly with no means. It seems to come.

我々の思春期とは、自意識・自我意志に目覚め始めた、彼らの思春期と 言ったほうが、正しい可能性すら ある。   Our adolescence is even more likely to be correct when we say they are adolescents who have started to awaken to self-consciousness and ego-will.

従って、過去の何万分の1でも、日々我々が、彼らにお詫びと感謝と愛情返しを 行ってあげれば、彼らにとって、真の幸せが、日々訪れ、我々も、心の奥底から、沸き出でてくる幸せ感を 感じる日々を 体験できることになる。   Therefore, in the tens of thousands of the past, if we apologize and thank and give back to them every day, true happiness will come for them every day, and we will also spill out of our hearts. You will be able to experience the feeling of happiness that comes.

注意しなければならない事は、本「幸せ感」後の、私見創造の第3段階以降の「躾」も含め、彼らは、犬の様な、哺乳類脳動物では、無い、と言う事である。犬に、「お手」を 躾るのに、7日あれば、良い。   It is important to note that they are not mammal brain animals like dogs, including “躾” after the third stage of IMHO creation after the book “Happiness”. . 7 days are enough to ask a dog for a "hand".

また、鶏や小鳥に、トイレの場所を、教えるのに、1年以上 掛かるかもしれない。 It may also take more than a year to teach chickens and small birds where toilets are.

しかし、彼らは、鶏や小鳥などの鳥類以下の脳しか持ち合わせていない爬虫類脳動物であると言う現実がある。 However, there is a reality that they are reptile brain animals that have only the brain below birds such as chickens and small birds.

つまり、鳥類の哺乳類脳動物よりも更に、難しく、彼らが、哺乳類脳動物以下の 爬虫類脳動物で、あることを、肝に命じて、日々の時間を 適切に 掛けて行かなくてはならないことが予測される事である。 In other words, it is more difficult than avian mammalian brain animals, and they must be the reptile brain animals below the mammalian brain animals and have to take the appropriate time every day by telling the liver to be. It is to be predicted.

これらにより、不良少年が、求める、両親からの深い愛情、裕福な家庭の子が、万引きを行う心の歪み、リストカットの真似事での自分確認、インターネット自殺などの厭世感、および、浮気による離婚増加などの不幸的な出来事は、徐々にではあるが、幾らかづつ減少して行くものと思われる。   Because of these, bad boys seek, deep affection from parents, wealthy family children are distorted in the heart of shoplifting, self-identification by imitating wrist cuts, a sense of life such as internet suicide, and cheating Unhappy events, such as an increase in divorce, are expected to gradually decrease, albeit gradually.

また、形而上学的には、脳・延髄・脊髄の姿は、エデンの園の中央にある善悪の知識の木の縮図の姿をしている。(脳の末、分かれの単位に「葉」を使用している。「葉」とは、木の一部でもある)つまり、善悪の知識の木に繋がった2個の眼球、即ち、2個のその木の実を、齧るように瞬きし、視覚知識を獲得し、その木を枝の根底で、司っている爬虫類脳動物、即ち、ヘビを養っている姿と、自然と重なってくる様に思われる。   Metaphysically, the brain, medulla oblongata, and spinal cord are a microcosm of the tree of knowledge of right and wrong in the center of the Garden of Eden. ("Leaf" is used as the unit of division at the end of the brain. "Leave" is also a part of the tree.) That is, two eyes connected to the tree of knowledge of good and evil, ie, two The fruit of the tree blinks like a squirrel, acquires visual knowledge, and the reptile brain animal that controls the tree at the base of the branch, that is, the figure that feeds the snake, overlaps with nature Seem.

人は、エデンの園を、追放される時、善悪の知識の木と、その木の実、および、ヘビを、この約束違反行為(天意に逆らう行為=魂体歪みの真因)の象徴である3つの象徴を、3つの象徴罰 そのもの として、人には、秘密に(旧約聖書には、敢えて、明記させず)、創造の主体により、魂体心体内に、3つの象徴罰を 埋め込ませ、猿と同化し肉体化させ、進化を経て、今日まで、7倍罰の期間を、3つの象徴罰が、生み出す狭き思慮(唯物世界観)と、それが生みだす誤解からの様々な対立の苦悩期間を、自ら何故と、問い、自ら解答・検証心を起こす迄、修行させられて来ている自魂体の修復修業の可能性が、かなり高いと思われる。   When a person is expelled from the Garden of Eden, the tree of knowledge of good and evil, the fruit of the tree, and the snake are symbols of this act of violating this promise (the act of countering spirit = the cause of soul-body distortion) 3 Three symbols as the three symbolic punishments themselves, secretly (not dare to specify in the Old Testament), and by the subject of creation, the three symbolic punishments are embedded in the soul and body. As a result, the period of seven-fold punishment has been extended to this day. The three symbolic punishments produce the narrow thoughts (views of the world of material), and the suffering periods of various conflicts from misunderstandings that it produces. It seems that there is a high possibility of repairing the self-soul that has been practiced until the question, why, and the self-answer / verification.

何故ならば、創造の主体の罰の癖には、答えを、教えず、自ら、長期間悩ませ、その中から、自らが、解答・検証心を、導き出させると言う、人類経過史の中の 感動的多数の史実中に見受けられる。人情・人心の感動の幅を 軽く越えた、長期の過酷さ、長期の厳格さ、および、時には、命懸けで、約束事(天意)を守るかを 試してくる癖が、あるからである。 This is because in the history of human history, the punishment of the subject of creation is not taught the answer, but worries for a long period of time, and from that, it leads the answer / verification mind. It can be seen in many impressive historical facts. This is because there is a habit of trying out the long-term harshness, long-term rigor, and sometimes the deadliness of protecting the promises (genius), which are beyond the range of emotions and emotions.

そこには、信仰は、殆ど助けにならない。むしろ、本来踏み込み、そこに留まって修行すべき場所・歪んだ魂体の修復すべき場所から、逃げ出さんとする1時的、妨げや、問題の本質を 見失させる麻痺剤でしかないと思われる。現実を、直視し、検証心を選択すべきであろうと思われる。与えられている環境、其処にしか、得るべき解答・検証は、ないからである。 There is little help from faith. Rather, I think that it is only a paralytic agent that steps in and stays there where it should be practiced and where the distorted soul body is to be repaired. It is. It seems that the reality should be faced and a verification mind should be selected. This is because there is no answer / verification to be obtained only in the given environment.

しかし、その様な、修行場・魂体修復場を、与えられ、維持運営されていることに気付き、この修行場・魂体修復場を有り難く受け入れ、此処で、研鑚して行く器を 自信の内界に、築き上げ、その中で、彼らと共に育ち、外界の縁あるものを 通して、1点を除いては、創造の主体へ、幾ら 心からの感謝とお詫びをしても、感謝が、足りる事は、決して、ないと思われる。 However, I noticed that such training and soul body restoration grounds were given and maintained, and I am grateful to accept this training place and soul body restoration grounds. No matter how much you thank and apologize to the subject of creation, with the exception of one point. It seems that there is never enough.

ところで、約束違反行為(魂体歪み行為)のもう1つ象徴であるイブは、何処に埋め込ませられて居るのであろうか? By the way, where is Eve, another symbol of promise violation (soul body distortion), embedded?

約束違反行為のアダムは、アダムを先祖とする我々の意識である前頭連合野=理性であることは、自明であろう。 It is self-evident that Adam, who violates the promises, is the frontal association area, which is our consciousness of Adam as an ancestor.

従って、イブは、アダム(我々の前頭連合野)と直接交信できる位置に居るはずである。 Thus, Eve should be in a position to communicate directly with Adam (our frontal association area).

イブは、アダム(我々の前頭連合野)の伴侶として言葉を以って絶えず交信できる能力をもたされているずである。 Eve is a companion of Adam (our frontal alliance) and has the ability to communicate constantly with words.

イブは、女性のような好き・嫌いの感情の能力を付加されているずである。 Eve is added with the ability of feelings like and dislikes like a woman.

イブは、ヘビと直接交信できる位置に居るはずである。 Eve should be in a position to communicate directly with the snake.

イブは、ヘビに唆されアダム(我々の前頭連合野)を低き志へ言葉巧みに誘う宿業の働き掛けを 嫌でもし続けさせられる立場に置かされているはずである。 Eve should be placed in a position where he would be tempted by the snake and continue to hate the work of the homework that skillfully invites Adam (our frontal association field) to the low will.

以上のことから、イブの象徴は、哺乳類脳であることが、判明される。 From the above, it becomes clear that the symbol of Eve is the mammalian brain.

アダムのあばら骨から造られた女性・イブにしかできないこと、それは、「哺乳行為」である。 The only thing women and Eve made from Adam ’s ribs can do is “feeding”.

あばら骨が、下支えしているものは、女性のみが行い得る「哺乳行為」でもある。 What the ribs support is also “feeding” that only women can do.

何故、イブが、アダムの「あばら骨」の部位から形造られなければならなかったのか?これで、理解できる。そして、この事から、創造の主体は、人の「神との約束違反」も 当初から百も承知して、肉体を進化させて来たと思われる。   Why did Eve have to be shaped from Adam's “rib bone”? This is understandable. And from this, it seems that the subject of creation has evolved the body, knowing one hundred of “violating promises with God” from the beginning.

従って、イブの象徴罰の名称に「哺乳」の冠が、被されていることは、至極当然と思われる。   Therefore, it seems quite natural that Eve's symbolic punishment is covered with a “feed” crown.

このことから、旧約聖書の該当する天上界の物語は、史実と思われる。 From this, the relevant heavenly story in the Old Testament seems to be historical.

何故ならば、我々の脳の3つの継ぎ足し3層構造が、物証しているからである。 This is because the three added three-layer structure of our brain is demonstrating.

つまり、何故、1層の脳構造として、進化を許されなかったのか? 3つの継ぎ足し3層構造の脳により、長岐に渡る理性、感情、および、衝動の3つの葛藤の人類史を 強いられなければならない人間の宿業の真因が、氷解できた訳である。 In other words, why was evolution not allowed as a one-layer brain structure? The three-layered three-layered brain has solved the true cause of human habitation, which has to force the human history of three conflicts of reason, emotion, and impulse.

(一般的に、真因が解けると、その宿業の効力は、次第に、減少して行くものである) (In general, when the root cause is solved, the effectiveness of the camp will gradually decrease)

そして、この3層構造こそ、3つの葛藤を生み出させるための、創造の主体による「人への約束違反行為に対する共通した初罪への罰であったこと」を、理解するに至る訳である。   And this three-tiered structure leads to an understanding of “It was a common punishment for a first offense for a violation of a promise to a person” by a creative subject to create three conflicts. .

またそして、約束違反行為により生じた、魂体の歪み=人の初罪を、自らの象徴罰が齎す葛藤の中から、最終的に「検証心、つまり、選択すべき[誘惑心からの克己心]の強化」を、自らが選択する行為により、自らが生み出した魂体の歪みの修復行為=人の初罪から生まれた歪みの矯正行為を、数千年に渡り、人間自らが、行なわされ続けていたことになると思われる。   And, from the conflict that the symbolic punishment of the soul body distortion = person's first sin caused by the breach of promise, finally “verification, that is, the selfishness from the temptation” Reinforcement of the soul body by the act of its own choice, the human being himself has been performing, for thousands of years, the act of repairing the distortion of the soul body that has been born. It seems to have been continued.

約2000年前、イエスは、人の原罪を説き、一身に背負い十字架上で、彼の神に、命を 以って贖罪し、贖罪の契約を、締結したと伝えられているが、彼が、契約に成功していたのであれば、我々の脳構造、もしくは、脳機能に、突然変異による何らかの変化が起き、前記3つの葛藤は、消滅・弱体化されていなければならない。 About 2000 years ago, Jesus was told that he preached the original sin of man, and on the cross carrying himself, on his cross, he atoned with his life and signed a contract of atonement. If the contract has been successful, some change in our brain structure or function due to mutation must occur, and the three conflicts must be extinguished / weakened.

しかし、約2000年もの長き時間の経過を、観察しても、現時点まで、なんら変化の徴候は、見出せない。むしろ、人類史は、葛藤により規模を拡大して、悪化しているようにさえ、観察される。 However, even after observing the passage of time as long as about 2000 years, no sign of change has been found until now. Rather, human history is observed, even as it grows in scale due to conflict.

従って、約2000年もの長き時間の経過を以っても、なんら変化していない我々の脳構造、もしくは、脳機能を、物証として、イエスは、人の初罪の贖罪の契約に成功していなかったと言う結論に行き着く。   Therefore, Jesus has succeeded in signing the Atonement of a person's first sin as evidence of our brain structure or brain function, which has not changed in a long time of about 2000 years. I come to the conclusion that there was no.

また、約束違反行為、つまり、逆らわんとする行為により生じた、魂体の歪みとは、角も長岐に渡る重罪であることを認識させられることに気が付く。   I also notice that the soul-body distortion caused by an act of violating the promise, that is, an act of rebellion, can be recognized as a felony over a long horn.

モーゼ十戒締結時における鋳造金牛(エジプト生活での牛神アピスへの愛着模倣か?)を祭らんと先導した支族の反抗の心根が、彼らの魂体の歪みを生み出し、それを受け継いだ、その子孫に、約3600年後の今日まで、世界平和に影を落とす、謂れ無き迫害・忘れた頃の災難という人類史を刻まされる事により、彼らの魂体の修復が、成されている過酷な愛情表現であることに気が付く。   The roots of the rebellion of the tribe who led the casting gold beef at the conclusion of the Moses Ten Commandments (an imitation imitation of the cattle apis in Egyptian life) created and inherited the distortion of their soul bodies. Until today, about 3600 years later, the progeny of the human body of the so-called persecution and forgotten disasters that cast shadows on world peace are engraved, and the restoration of their soul bodies has been done. I notice that it is a loving expression.

同時に、金牛祭りに参加しなかった支族の従順な心根が、彼らの魂体の強化を生み出し、それを受け継いだ、その子孫に、約3600年後の今日まで、世界平和に光を投げかけ、思いもよらない幸運な発展・思いがけない幸運な救罪を 人類史に刻まされる事により、この魂体の気質により、恵まれている運命を持つが故の、その欠点である甘えん坊の気質も、その支族全体に、均質・均等に見受けられ、創造の主体への従順な心根と行為が、如何に長期に渡り重要なものであることに気付かされる。   At the same time, the obedient roots of the tribe who did not participate in the Golden Beef Festival created a strengthening of their soul bodies, and shed light on world peace until today, about 3600 years later, to their descendants. The unfortunate development of luck and unexpected unlucky salvation are engraved in the history of mankind, and the temperament of this soul body has the fate of being blessed. It is noticed by the entire tribe that the importance of obedient roots and actions to the subject of creation is important over the long term.

そして、この支族が、創造の主体を信仰していなくても、既に、先祖により形成強化された魂体の気質を受け継いでいる故、従順さと、甘えん坊気質は、消える事はない。   And even if this tribe doesn't believe in the subject of creation, it has already inherited the soul body temperament formed and strengthened by its ancestors, so obedience and spoiled temperament will not disappear.

また、創造の主体を信仰せず、八百万の神々を祭り、金像・青銅像・石像・木像を拝んでいたとしても既に、先祖により形成強化された魂体の気質を受け継いでいる故、従順さと、甘えん坊気質は、消える事無く、今も、発揮されている。   Even if they don't believe in the subject of creation and celebrate the 8 million gods and worship gold, bronze, stone, and wooden statues, they have already inherited the spirit of the soul body that was formed and strengthened by their ancestors. Therefore, obedience and spoiled temperament have never disappeared and are still being demonstrated.

また、創造の主体を信仰せず、八百万の神々を祭り、金像・青銅像・石像・木像を拝んでいたとしても既に、モーゼ十戒締結の約束事は、約3600年前、モーゼ自身により、地に破棄されているため約束違反にも当たらないのである。   Even if he did not believe in the subject of creation, but celebrated eight million gods and worshiped gold, bronze, stone, and wooden statues, Moses himself promised about 3600 years ago to sign the Moses Ten Commandments. Because it is destroyed on the ground, it does not violate the promise.

むしろ、天に頼み、王を戴いた王制こそ、堅持しなければならない約束事と思われる。   Rather, the kingship that relied on heaven and received the king seems to be a promise that must be maintained.

また、今は無き、王制を戴いたその旧約聖書中の北イスラエル国家が、仮に、女性系統の流れを生み出す王を戴く許可を、天に貰おうとしても、恐らく、前記国家の天の許可は、降りなかったと想像仮定される。   Also, even if there is no now, and the northern Israeli state in the Old Testament who received the monarchy tried to ask the heavens to receive the king that creates the flow of the female lineage, perhaps the heavenly permission of the state is Imagine that you did not get off.

従って、今は無き、前記国家が、仮に本約束無許可遂行計画を、天に、無許可の下、現実味を帯びさせ成長させようとするに付け、その国の一般子女への一連の刑事事件・凶悪詐欺事件による民の災禍として勃発し、比例成長して行き、その今は無き国家の社会の上層部へと、進化悪化して行くことが、仮説として、成立すると思われる。   Therefore, it is not now, and the state tentatively puts this Promising Unauthorized Execution Plan in heaven to make it real and grow without permission, and a series of criminal cases against ordinary children in that country.・ It seems that the hypothesis is that it will break out as a disaster of the people due to the violent fraud, grows proportionally, and then evolves and deteriorates to the upper level of the nation's society without it.

また、今は無き、前記国家の民の総意が、選択した約束違反の決め事実施の今後のその国の推移は、今は無き南イスラエル国家の推移が、既に、歴史的に、類例的に、証明していると思われる。   In addition, there is no present, the consensus of the nation's people, the transition of that country in the future implementation of the decision of breaching the selected promise, the transition of the South Israel state, which has no Seems to prove.

ところで、聖書には、「ヘビと女との間に、また、ヘビの子孫と女の子孫との間に 敵意を 置く」と記載されているが、現実のヘビと女性の間には、敵意など存在しない。男性の方が、ヘビを嫌う敵意を多く持ち、むしろ、女性の方が、ヘビを好みペットとしているのを良く見聞きする。   By the way, the Bible states that “the hostility is placed between the snake and the woman, and between the snake ’s descendants and the girl ’s offspring”. not exist. Men have a lot of hostility to dislike snakes, but rather women often see and listen to snakes as their favorite pet.

では、前記脳内の爬虫類脳動物と哺乳類脳の間に、敵意が、存在しているのだろうか?   So, is there hostility between the reptile brain animal and the mammalian brain in the brain?

爬虫類脳動物と哺乳類脳の間で、どの様に交信されているかは、解らないが、それは、存在すると思われる。 I don't know how reptile brain animals communicate with the mammalian brain, but it seems to exist.

爬虫類脳動物と哺乳類脳の更なる躾方法と本敵意回避の方法は、機会があれば、私見創造の第3段階以降で、端的に、論じたい。  If there is an opportunity, I would like to discuss further methods for drowning reptile brain animals and mammalian brains, and how to avoid this hostility, from the third stage of IMHO creation.

4つの象徴罰からの卒業により得られる克己心の強化、つまり、2個の眼球のみによる、視覚情報獲得作業からの卒業と内界への新入学、外界の唯物世界観情報から善悪の知識を獲得する脳機能作業からの卒業と、内界通信による情報獲得への新入学、互いに交信できなかったヘビと和解し始めたことから、ヘビとの対立概念下からの卒業と新たな克己能力強化方法への新入学、および、低い志へ誘うイブの宿業習性の真因の理解と克己能力の強化の卒業と新入学、この4つの象徴罰からの卒業と新入学の各行為により、創造の主体が、定めた人間の7倍罰の期間が、終了へと近づき始めている現象とも捕えることが、できる。 Strengthening selfishness obtained by graduation from four symbolic punishments, that is, graduation from visual information acquisition work and new entrance into the inner world by only two eyeballs, gaining knowledge of good and evil from material world view information of the outside world Graduation from brain function work, new entrance to information acquisition by internal communication, starting to reconcile with snakes that could not communicate with each other, graduation from the concept of conflict with snakes and a new method of strengthening self-confidence The entrepreneur of creativity determined by the graduation and new admission of understanding of the cause of Eve's homework habit and inviting to a low aspiration and strengthening the selfish ability, and graduation and new admission from these four symbolic penalties It can be captured that the period of human punishment is about to end.

つまり、いよいよ第2のエデンの園的場所へ、帰還する時期が、近づいていると解釈してもよいと思われる。内在する4つの象徴罰を、内在する4つの象徴罰からの卒業証書と新克己能力強化(次元上昇に耐え得る能力)の獲得免許証を 育て上げてきた者から、第2のエデンの園的場所への入場が、許されると思われる。 In other words, it may be interpreted that the time to return to the second garden in Eden is approaching. The second Eden garden place from those who have nurtured four inherent symbolic penalties, diplomas from the four inherent symbolic penalties, and a license to acquire new Katsumi's ability enhancement (capability to withstand ascent) Admission to is expected to be allowed.

新克己能力強化の獲得免許証とは、死に至るまで死を恐れない心情と思われる。この心情の訓練は、レベルこそ違え、オリンピック出場選手の練習心情に、多く見受けられる。  A license for acquiring new Katsumi ability seems to be a feeling of fear of death until death. This kind of emotional training is at a different level and is often seen in the feelings of practice for athletes participating in the Olympics.

つまり、シンクロナイズド・スイミング選手等の「何度も、死ぬかと思うレベル内で、練習して来た。」とか、陸上選手等の「死んでも良いと思い定めて、自身の限界に、挑戦して、練習して来た。」と相通じる、死を恐れないレベルまでの克己心強化方法と思われる。   In other words, “I have practiced within the level where I think I will die many times” such as synchronized swimming players, etc. It seems to be a method of strengthening selfishness to a level that is not afraid of death.

この死を恐れないレベルまでの克己心体験を、アダム脳対応の心体自身の意識とすることにより、ヘビ脳心体・イブ脳心体の各誘惑を、自力で、断ち切れる意識領域、つまり、誘惑により神との約束違反(原罪)を、二度と犯さないと決意した進化した第2のアダム意識を、形成体験し、育て、確立させるべき内界意識レベルと思われる。 By making this selfish experience to a level that is not afraid of death with the mind of Adam's mind corresponding to the brain itself, each temptation of the snake brain body and Eve brain mind body can be cut off by oneself, It seems that this is the level of inner world consciousness to develop, nurture, and establish the evolved second Adam consciousness, determined to never commit the breach of promise with God (original sin) by temptation.

またその後、先のヘビ脳対応の心体・イブ脳対応の心体も、先のレベルまで、同様に、躾、育て、確立させてあげるべきと思われるからである。 Also, after that, it is thought that the mind body corresponding to the previous snake brain and the mind body corresponding to the eve brain should be raised, raised and established similarly to the previous level.

その期間、皮肉ではあるが、信仰心は、余り、問題にならないと思われる。真心からの感謝とお詫びは、必要と思われるが。 Ironically, it seems that faith is not a problem during that period. Thought and appreciation from the bottom of my heart seems necessary.

また以上を、まとめた事柄から、先の禅的心行の「心体の手法」を具体的に、1例を、述べると 禅における、只管打坐の管とは、細長い爬虫類脳動物を指すと思われ、先の彼らへの伝達手段は、以下の方法が、体系化できる。   In addition, from the summary of the above, a specific example of the “mental body technique” of the previous Zen psychic practice is as follows: In Zen, the tubal tube is a long and narrow reptile brain animal. It seems that the following methods can be systematized as a means of communication to them.

まず、心体を
・喉と胸を主とする奥から声を発する意志を中心としたアダム脳心体
・小腸の奥から声を発する意志を中心としたイブ脳心体
・横隔膜と胃の上部後ろの背中部を中心とした背中・両肩・両手・骨盤・両足に渡る無言の意志を中心としたヘビ脳心体
の3部に分ける。
First, Adam's mind, centered on the will to utter voice from the back, mainly the throat and chest, Eve brain mind, diaphragm, and upper stomach It is divided into three parts, the snake brain centered on the back, shoulders, both hands, pelvis, and the silent will that spans both legs, with the back at the center.

各心体部は、重層していると思われるが、検証できない、しかし、各対応脳に、接続されている事は、確かと思われる。 Each body part seems to be layered, but cannot be verified, but it seems certain that it is connected to each corresponding brain.

この3つの心体部の位置と「体内の善悪の知識の樹」の意味する内容が、大阪万博公園に万博後も府民の嘆願により、今も、唯一、立っている父が、コラム漫画家だった故岡本太郎画伯作の「太陽の塔」に設置されている、塔の名前、3つの顔形の位置とその意味合いの色と描写像形、および、「塔内の進化を現した生命の樹」が、実に良く似ているのは、偶然の一致だろうか?   The position of these three minds and the meaning of the “tree of knowledge of good and evil in the body” is the only dad who is standing by the column manga artist. The name of the tower, the position of the three face shapes and the color and depiction of their meanings, and the life that showed the evolution in the tower. Is it a coincidence that “the tree” is very similar?

(時の経過に、変遷せず、孤高に、立ち続けている事実こそ、重要なメッセージが、其処に、存在していると思われる。) (The fact that it has continued to stand alone, not changing over time, seems to have an important message there.)

また、横隔膜と胃の上部後ろの背中部を中心としたヘビ脳心体の中心部と、仏教画で描かれる背光の中心部と重なって見えるのは、偶然の一致だろうか? Is it a coincidence that the center of the snake brain centered on the back of the back of the stomach and upper part of the stomach overlaps with the center of the back light depicted in Buddhist paintings?

身体が、筋電位・触感電位(筋電位以外の5感覚が起こす電位)を持つ様に、各心体も心体電位を持つものと思われる。   Each body seems to have a cardiac body potential as the body has a myoelectric potential and a tactile potential (a potential caused by five senses other than the myoelectric potential).

現代科学は、心の領域である感情すら電気信号で興し、治療できるからである。  In modern science, even emotions, which are the realm of the mind, can be stimulated and treated with electrical signals.

従って、アダム脳心体は、理性種電位・イブ脳心体は、感情種電位・ヘビ脳心体は、衝動種電位を起こせることになる。   Therefore, the Adam brain body can cause the intelligent seed potential, the Eve brain body, the emotional seed potential, and the snake brain body, the impulse seed potential.

呼吸機能の間脳への触感電位に、従来の自律神経訓練法の、「緊張と弛緩」の筋電位を起こし、この「筋電位」に、アダム脳心体が持つ理性種電位である「存在の確認と認識電位」を添えて、各脳に心体電位を送り込む事により、各脳の安定、脳索の確実性が、計られると思われる。 In the tactile potential to the brain during the respiratory function, the myoelectric potential of “tension and relaxation” of the conventional autonomic nerve training method is caused. It is considered that the stability of each brain and the certainty of the brain cord can be measured by sending a cardiac body potential to each brain with “confirmation and recognition potential”.

従って、この「触感電位」「筋電位」に、「理性種電位」と「感情種電位」を添えて、ヘビ脳心体を中心として各脳に心体電位を送り込む事により、爬虫類脳動物を中心とした脳の精神的安定が、計られることになると思われる。 Therefore, by adding the “intelligent species potential” and the “emotional species potential” to this “tactile potential” and “myoelectric potential” and sending the cardiac body potential to each brain centering on the snake brain, the reptile brain animal The central mental stability of the brain will be measured.

つまり、呼吸機能の「吐きと吸い」の触感に合わせる様に、横隔膜と胃の上部後ろの背中部を中心とした背中・両肩・両手・骨盤・両足に渡る筋肉の「緊張と弛緩」を起こし、この「触感電位」「筋電位」を中心に「意識集中と意識の分散」と「憎しみと愛情返し」、もしくは、「苛立ちと愛情返し」を同調するように、セットで行うことにより、各心体電位が起こすメッセージを送り込む事ができ、爬虫類脳動物を中心とした脳の精神的安定が、計られることになると思われる。 In other words, to match the tactile sensation of breathing function “vomiting and sucking”, “tension and relaxation” of the muscles across the back, both shoulders, both hands, pelvis, and both legs centered on the back of the upper part of the diaphragm and stomach. By waking up and performing in a set so that `` concentration concentration and dispersion of consciousness '' and `` hate and affection return '' or `` irritation and affection return '' are synchronized around this `` tactile potential '' and `` myoelectric potential '', Messages sent by each body potential can be sent, and mental stability of the brain, especially reptile brain animals, will be measured.

1例で、詳細すると、今までのお詫び(今まで、申し訳なかった)と感謝(毎日、ご苦労様です)を述べた後、「憎しみ」の感情種電位を起こした時の、「緊張」する筋電位を内観観察把握し、その部位に、「愛情返し」メッセージをピンポイントを外したドウナツ形状部分で送り込み(私的経験則から、ピンポイントでは、効果が全く無い、つまり、的外れとなっている。)、同時に、ピンポイントを外したドウナツ形状部分で「筋電位」の「弛緩」(暖かい開放感)と、ピンポイントを外したドウナツ形状部分で呼吸機能の「吸い」(爽やかな開放感)を、その部位に集中して、その「緊張」部分で、その「緊張」部分が、「弛緩」しながら「吸って」「愛情返しされて」いるように想念を起こし、送り込む訳である。 In one example, in detail, after expressing the apology so far (sorry until now) and thankfulness (every day, thank you for your hard work), you will be “tensioned” when the emotional seed potential of “hate” occurs. The myoelectric potential is inspected and grasped, and the “loving return” message is sent to the site in a donut-shaped part with the pinpoint removed (from my rule of thumb, the pinpoint has no effect, that is, it is not appropriate. At the same time, "myoelectric potential" "relaxation" (warm open feeling) in the donut-shaped part with the pinpoint removed, and "sucking" breathing function (fresh feeling of release) in the donut-shaped part with the pinpoint removed ) Is concentrated on the part, and the "tension" part is sent to the "tension" part as if it was "relaxed" while "sucking" and "loving back". .

この「憎しみ」の感情種電位を起こした時の、「緊張」する筋電位は、爬虫類脳動物が持つ、「憎しみ」感情と呼応しているものと思われるからである。 This is because the “potential” myoelectric potential when this “hate” emotional species potential is caused is considered to correspond to the “hate” emotion of reptile brain animals.

何故ならば、「憎しみ」・「緊張」と「吐き呼吸」を 同調させる事により、呼吸を司っている間脳とその上部に繋がって居る爬虫類脳中心部へ、この同調時、本感情・緊張が、伝達されていることになると思われるからである。 This is because by synchronizing “hate” / “tension” and “breathing breath”, while the breath is in control, the brain and the reptile brain connected to the upper part of the brain are synchronized. This is because tension seems to be transmitted.

この繰り返しにより、爬虫類脳動物が持つ、「憎しみ」感情発露の部位へ、「吸い呼吸」の時、ピンポイントを外したドウナツ形状部分で、愛情返しのメッセージを 送り込むことになり、短時間で、効率の良い送り込みができることになる。 By repeating this, the message of love return is sent to the part of the reptile brain animal that has the feeling of hate, and when it is `` breathing, '' the donut shape part is removed from the pinpoint. Efficient feeding can be performed.

この時の各比率時間は、「吐きと吸い」の感覚的時間が、約1:6〜8(実際は、1:2)がよいと思われる。 Each ratio time at this time seems to be about 1: 6 to 8 (actually 1: 2) as the sensory time of “voking and sucking”.

通常、座禅の呼吸法は、「吸いと吐き」の時間比率が、1:2、ヨガが、1:3以上と思われるが、この単調な方法では、日常生活で、睡魔が、襲うという副作用が、起こる。 Usually, the zazen breathing method seems to have a time ratio of "sucking and spitting" of 1: 2, yoga is 1: 3 or more, but this monotonous method has the side effect of attacking sleepiness in daily life. But it happens.

本手法では、この副作用を、できるだけ避け、なお且つ、短時間で、前記効果を得るよう座禅・ヨガの呼吸法「吸いと吐き」を逆転して、「吐きと吸い」とし、なお且つ、「緊張と弛緩」「憎しみと愛情返し」の各電位の自然の理と同調し易いよう工夫を凝らしてある。 In this method, this side effect is avoided as much as possible, and in order to obtain the above effect in a short time, the zazen / yoga breathing method “sucking and spitting” is reversed to “vomiting and sucking”. It has been devised to make it easier to synchronize with the natural reason of each potential of “Tension and Relaxation” and “Hate and Love Return”.

この自然の理(筋電位の内容・心体電位の内容)と同調する呼吸法は、私見 創造の3段階からも、重要なものとなり、この呼吸法無くしては、効果を生み出せなくなるからである。 This is because the breathing method that synchronizes with this natural reason (the content of myoelectric potential and the content of the cardiac body potential) becomes important from the three stages of personal creation, and without this breathing method, no effect can be produced. .

電位差は、格差が高いほど高い効果を、短時間で送り込むことができる。「愛情返し」の単調な低い電位差のみでは、効果が薄くなり易く、時間が掛かりすぎる。 As the potential difference is higher, a higher effect can be delivered in a shorter time. Only a monotonous low potential difference of “love return” tends to be less effective and takes too much time.

また、前記「憎しみ」、もしくは、「苛立ち」は、自らが課題とする爬虫類脳動物が持つ他の悪衝動(社会的概念下での弊害概念)感情に入れ替えて、訓練する事も可能である。   In addition, the “hate” or “irritation” can be trained by replacing it with other evil impulses (evil concept under social concept) that the reptile brain animals have as their subject. .

また、他の効果として、感情コントロール力・克己的力が、自然と身に付き、心情の平常心を得易くなると思われる。   In addition, as another effect, it seems that emotion control power and selfish power are naturally acquired, and it becomes easy to obtain a normal feeling of emotion.

また、本自律神経訓練法は、ソファーに深座りし、テレビジョンを眺めながら内観する生活禅的姿勢が、基本的姿勢であり、打坐の本格的座禅姿勢は、取らないため、日常何時でも行える利点を持つ。 In addition, this autonomic nerve training method is a basic Zen posture that sits on the sofa and inspects while watching the television, and it does not take a full-blown sitting posture, so it can be done at any time of the day With advantages.

また、この姿勢は、私見創造の第4段階以上から、当段階手法が、取り組み易い姿勢でもある。 Moreover, this attitude is also an attitude that this stage method is easy to tackle from the 4th stage or more of private IM creation.

各脳への外部からの直接的送り込みよりも、「身体の触感電位・筋電位」に「心体の心体電位」を添える内観ルートの方が、自然な各脳中心部への正統なルートであり、各脳深部への伝達効果が、最も得られるルートと思われる。 The introspection route that adds the “body's tactile potential / muscle potential” to the “body's tactile potential” is more legitimate than the direct external delivery to each brain. The transmission effect to the deep part of each brain seems to be the most obtained route.

以上を行う事により、先の過度の中層の睡眠欲・性欲・肉食などの食欲、および、闘争欲は、次第に、不思議と、徐々に減少し、もしくは、自身に、プラスに働く様に成長して行くものと思われる。   By doing the above, the appetite for excessive middle-layer sleep appetite, libido, carnivorous and other appetite, and the desire for struggle gradually and gradually decreased, or grew to work positively on itself. It seems to go.

憎しみ・苛立ち・抑圧の概念も、軟化して行き、誰も、解明し、教えてくれなかった数千年間にも渡る 3つの意志同士の葛藤対立概念の減少が、実現して行くことを体験できると思われる。 The concept of hatred, irritation, and oppression has also softened, and we have experienced the realization of the reduction of the conflict concept between the three wills over the millennia that no one has elucidated or taught. I think I can do it.

そして、1つの太く深い感謝と愛情の絆の道が、自身の内界に、日々浮かび上がり、育って行くことを得ると思われる。 And one thick and deep path of appreciation and affection will come to the daily life and grow up in your inner world.

本「心体の手法」は、「私見 創造の5段階」の2段階目でもある。この2段階目を 経ずして、3段階目へ進めば、必ず、爬虫類脳動物が苦しがり、彼らからの猛反撃を 時間差(半日後〜1日後)を以って、被ることになる。これにより本手法が、単なる自己暗示法ではないことが、理解されよう。 This “method of mind and body” is also the second stage of “Five levels of private IM creation”. If you go to the third stage without going through the second stage, you will surely suffer from the reptile brain animals, and you will suffer a fierce counterattack from them with a time lag (half day to one day later). As a result, it will be understood that this method is not merely a self-implicit method.

つまり、彼らの意志の底力の大きさを 思い知らされることになり、我々の意志とは別の 彼らの意志の存在と その大きさ、および、その存在証拠現象に、自らの体験で、自らが、気付かされることになる。
また、この気付き体験は、私見創造の5段階の1段階目でもある。つまり、この体験により、大馬鹿者の小さな自覚が、自身の内界に、生まれ出る構造と成っている。
In other words, they will be aware of the magnitude of their will, their own will and the magnitude of their will, and the existence proof phenomenon. You will be noticed.
This awareness experience is also the first stage in the fifth stage of personal IM creation. In other words, this experience forms a structure in which a small idiot's small awareness is born in his own inner world.

尚、この3段階目以降は、機会が無いため、未だ具体的には、公開していない。 In addition, since there is no opportunity after the third stage, it has not yet been disclosed specifically.

また、このお詫びと感謝と愛情返しは、対象とすべき別の意志保持者が、居るため、自己愛の概念類とは、別物である。 Also, this apology, gratitude and return of love are different from the concept of self-love because there are other will holders that should be the subject.

次に〔課題を解決するための手段〕2項に記載の両組融合画像情報による上下両離輻輳融合画像情報を、図を持ちいて、下に、各々説明する。   [Means for Solving the Problem] Next, the upper and lower deconvergence fusion image information based on the both-pair fusion image information described in item 2 will be described below with reference to the drawings.

図4は、
公知技術の両組融合画像情報dの上に、それより小さな公知技術の両組融合画像情報fFを、重ね合わせて生成した、生成過程を表している。
詳細すると、図4は、図2で使用した「背景C」、「背景D」を、使用している。
FIG.
This shows a generation process in which the two sets of fused image information fF of the known technology smaller than that are superimposed on the two sets of fused image information d of the known technology.
More specifically, FIG. 4 uses “background C” and “background D” used in FIG. 2.

E、Fは、「背景C」、「背景D」よりも小さな四角錐を真上から見た平面画像情報の基本画像情報から、公知技術の両組融合画像情報が起き、結果、「空間突出度画像情報」dが得られる「組形像系画像情報」E、同他の「組形像系画像情報」Fである。(以下、この 「組形像系画像情報」を「組E」、同「組形像系画像情報」を「組F」と呼称する。) In E and F, both sets of fused image information of known technology occur from the basic image information of planar image information obtained by viewing a square pyramid smaller than “Background C” and “Background D” from directly above. "Composite image system image information" E from which the "degree image information" d is obtained, and other "composite image system image information" F. (Hereinafter, the “composite image system image information” is referred to as “set E”, and the “composite image system image information” is referred to as “set F”.)

「背景C」、「背景D」間の融合範囲は、最大融合範囲Zとなっている。 The fusion range between “background C” and “background D” is the maximum fusion range Z.

「組E」、「組F」間の融合範囲も、最大融合範囲Zとなっている。 The fusion range between “set E” and “set F” is also the maximum fusion range Z.

「背景C」、「背景D」は、同一大の大きさであり、これより生み出された「空間突出度画像情報」dも、「背景C」、「背景D」と、同一大の大きさとなる。 “Background C” and “Background D” have the same size, and “Spatial protrusion degree image information” d generated therefrom also has the same size as “Background C” and “Background D”. Become.

「組E」、「組F」は、その各画像情報の中心線ETとFTが、「背景C」、「背景D」上の中心線CTとDTと相重なり、中心線同士が、重なり中心線ETと中心線CT、中心線FTと中心線DTが、一致するように張り合わせてある。この一致により、「背景C」、「背景D」間では、最大「空間突出度画像情報」dと「組E」、「組F」間では、最大「空間突出度画像情報」fが、形成できている。  In “set E” and “set F”, the center lines ET and FT of the respective image information overlap with the center lines CT and DT on “background C” and “background D”, and the center lines overlap with each other. The line ET and the center line CT, and the center line FT and the center line DT are pasted together so as to coincide. Due to this coincidence, the maximum “spatial protrusion degree image information” d and the maximum “spatial protrusion degree image information” f are formed between “background C” and “background D” and between “set E” and “set F”. is made of.

この最大「空間突出度画像情報」dと、最大「空間突出度画像情報」fとは、同一空間内に有るため、この空間内の想定表示面より突出した大きなピラミッドd内に、同一の想定表示面より同様に突出した小さなピラミッドfが、下の方に見えることになる。 Since the maximum “spatial protrusion degree image information” d and the maximum “spatial protrusion degree image information” f are in the same space, the same assumption is made in the large pyramid d protruding from the assumed display surface in this space. A small pyramid f protruding in the same manner from the display surface will be seen below.

この2つのピラミッドd・fは、最大融合範囲Zから、生み出されているため、これ以上の各「空間突出度画像情報」d・fを、形成できない。 Since these two pyramids d · f are generated from the maximum fusion range Z, no more “spatial protrusion degree image information” d · f can be formed.

図3は、図4と同一の構成要因で、構成されている。 FIG. 3 is configured by the same components as those in FIG.

図4との違いは、小さな「組E」、「組F」が、その各画像情報の中心線ETとFTの、「背景C」、「背景D」上の中心線CTとDTと相重なり、中心線同士が、重なり 中心線ETと中心線CT、中心線FTと中心線DTが、一致するように張り合わせず、
「組E」、「組F」が、各画像情報の中心線ETとFTが、「背景C」、「背景D」上の中心線CTとDTと相重ならず、中心線ETを中心線CTより、左に少しずらして、張り合あわせ、中心線FTは、中心線DTより、右に少しずらして張り合わせている。
The difference from FIG. 4 is that the small “set E” and “set F” overlap the center lines CT and DT on the “background C” and “background D” of the center lines ET and FT of the respective image information. The center lines overlap, and the center line ET and the center line CT, and the center line FT and the center line DT are not pasted so that they match,
“Set E”, “Set F” are center lines ET and FT of the respective image information do not overlap with the center lines CT and DT on “Background C” and “Background D”, and the center line ET is the center line. The center line FT is pasted with a slight shift to the right from the center line DT.

この左右のずれにより、「背景C」、「背景D」間では、最大「空間突出度画像情報」dが、形成され、「組E」、「組F」間では、最大融合範囲を越えているため、図4の場合のような両組融合画像情報fは、起こらずe、結果、「空間突出度画像情報」fは、形成できない。 Due to this left / right shift, a maximum “spatial protrusion image information” d is formed between “background C” and “background D”, and exceeds the maximum fusion range between “set E” and “set F”. Therefore, both sets of fused image information f as in the case of FIG. 4 do not occur e, and as a result, “spatial protrusion degree image information” f cannot be formed.

しかし、人の視中枢内には、前記、視中枢内に、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この機能の働きにより、両離輻輳融合画像情報ffが、形成されることになり、最大「空間突出度画像情報」dを背景として、その上空に同空間内の想定表示面より飛び出している「空間突出度画像情報」ffが、形成されることになる。 However, in the human visual center, it is considered that the “right and left parallax creation function for convergence that superimposes and fuses the moving gazing point image information to the definite fused image information” is present in the visual center. Therefore, the function of this function results in the formation of both deconvergence fusion image information ff, with the maximum “spatial projection image information” d as the background, popping up from the assumed display surface in the same space. The “spatial protrusion degree image information” ff is formed.

つまり、飛び出た大きなピラミッドd上空に、想定表示面より 飛び出た小さなピラミッドffが、見えることになる。   That is, a small pyramid ff that protrudes from the assumed display surface can be seen in the sky above the large pyramid d that protrudes.

前記「組E」、「組F」間の左右のずれを、さらに、広げて左右にずらすと、前記d上空より、さらに、上空に、想定表示面より突出した小さなピラミッドffが、見えることになる。   When the left and right shifts between the “set E” and the “set F” are further widened and shifted to the left and right, a small pyramid ff protruding from the assumed display surface can be seen above the d and above. Become.

この連続した誘導表示を重ねながら、「組E」、「組F」間の左右のずれを徐々に、広げていくことにより、突出した小さなピラミッドffが、目前まで、迫って見える位置にまで、輻輳融合画像情報ff視点を導くことが、可能となる。  By gradually spreading the left and right shifts between “Group E” and “Group F” while overlapping this continuous guidance display, the protruding small pyramid ff reaches the position where it can be seen, It is possible to derive the convergence fused image information ff viewpoint.

また、前記左右のずれを徐々に、広げていくとき、「組E」、「組F」自身を、徐々に、横、もしく、縦横均等に、各拡大していくことにより、前記より、さらに、現実味のある目前まで、迫る、輻輳融合画像情報ffの視点誘導となる。   In addition, when gradually expanding the left-right shift, the "set E" and the "set F" themselves are gradually expanded horizontally, horizontally, vertically and horizontally, respectively, Further, the viewpoint guidance of the convergence fused image information ff is approaching to the real present.

また、これとは、逆に、「組E」、「組F」間の左右のずれを徐々に、狭めていくことにより
図4と、同じ状態となり、さらに、「組E」、「組F」間の最大「空間突出度画像情報」fの最大値を、0値にすれば、平面画像情報の小さな四角錘に、戻ることになる。
On the contrary, by gradually narrowing the left and right shifts between “set E” and “set F”, the same state as in FIG. 4 is obtained, and further, “set E” and “set F”. If the maximum value of “space projection degree image information” f between “0” is set to 0 value, it returns to a square weight with small planar image information.

次に、〔課題を解決するための手段〕3項に記載の両形組融合画像情報による上下両離輻輳融合画像情報を、図をもちいて、説明すると、
図6は、
公知技術の両組融合画像情報dの上に、それより小さな公知技術の両形組融合画像情報hを、重ね合わせて生成した、生成過程を表している。
Next, the upper and lower deconvergence fusion image information based on the both-form set fusion image information described in [3] [Means for Solving the Problems] will be described with reference to the drawings.
FIG.
A generation process is shown, in which a smaller pair of both-shaped set fused image information h of the known technology is superimposed on the known set of both-set fused image information d.

詳細すると、図6は、図1、2、3、4で使用した「背景C」、「背景D」と「大A」「小B」「組E」「組F」と、同じものを、使用している。 More specifically, FIG. 6 shows the same “background C”, “background D” and “large A” “small B” “set E” “set F” used in FIGS. I use it.

G、Hは、前記図1、2、3、4の各組み合わせを除く「大A」「小B」「組E」「組F」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体G、Hである。 G and H are one or more various combinations between the “large A”, “small B”, “set E”, and “set F” except for the combinations shown in FIGS. The hybrids G and H divided into at least two.

以下、G,Hを「混G」、「混H」と呼称する。 Hereinafter, G and H are referred to as “mixed G” and “mixed H”.

「混G」「混H」との融合からは、公知技術の両形組融合画像情報hが起き、結果、最大「空間歪性度画像情報」hが得られる。 From the fusion with “mixed G” and “mixed H”, both-form combined image information h of known technology occurs, and as a result, the maximum “spatial distortion image information” h is obtained.

「混G」、「混H」は、その各画像情報の中心線GTとHTが、「背景C」、「背景D」上の中心線CTとDTと相重なり、中心線同士が、重なり中心線GTと中心線CT、中心線HTと中心線DTが、一致するように張り合わせてある。  “Mixed G” and “Mixed H” indicate that the center lines GT and HT of each image information overlap with the center lines CT and DT on the “background C” and “background D”, and the center lines overlap each other. The line GT and the center line CT, and the center line HT and the center line DT are bonded to each other.

この一致により、「背景C」、「背景D」間では、最大「空間突出度画像情報」dと「組G」、「組H」間では、最大「空間歪性度画像情報」hが、形成できている。   Due to this coincidence, the maximum “spatial distortion degree image information” d and the maximum “spatial distortion degree image information” h between “background C” and “background D”, It has been formed.

この最大「空間突出度画像情報」dと、最大「空間歪性度画像情報」hとは、同一空間内に有るため、この空間内の想定表示面より突出した大きなピラミッドd内に、同一の想定表示面より同様に歪んだ小さなピラミッドhが、下の方に見えることになる。   Since the maximum “spatial protrusion degree image information” d and the maximum “spatial distortion degree image information” h are in the same space, the same pyramid d protruding from the assumed display surface in this space is the same. A small pyramid h that is similarly distorted from the assumed display surface will be seen below.

この2つのピラミッドd・hは、最大融合範囲Zから、生み出されているため、これ以上の「空間突出度画像情報」d同「空間歪性度画像情報」hを、形成できない。 Since these two pyramids d · h are generated from the maximum fusion range Z, no more “spatial protrusion degree image information” d and “spatial distortion degree image information” h can be formed.

図5は、
図6と同一の構成要因で、構成されている。
FIG.
It is comprised by the same component factor as FIG.

図6との違いは、小さな「混G」「混H」が、その各画像情報の中心線GTとHTの、「背景C」、「背景D」上の中心線CTとDTと相重なり、中心線同士が、重なり 中心線GTと中心線CT、中心線HTと中心線DTが、一致するように張り合わせず、
「混G」「混H」が、各画像情報の中心線GTとHTが、「背景C」、「背景D」上の中心線CTとDTと相重ならず、中心線GTを中心線CTより、左に少しずらして、張り合あわせ、中心線HTは、中心線DTより、右に少しずらして張り合わせている。
The difference from FIG. 6 is that the small “mixed G” and “mixed H” overlap with the center lines CT and DT on the “background C” and “background D” of the center lines GT and HT of the respective image information, The center lines overlap, and the center line GT and the center line CT, and the center line HT and the center line DT are not pasted so that they match,
“Mixed G” and “Mixed H” indicate that the center lines GT and HT of each image information do not overlap with the center lines CT and DT on the “background C” and “background D”, and the center line GT is the center line CT. Further, the center line HT is slightly shifted to the left and slightly pasted to the right from the center line DT.

この左右のずれにより、「背景C」、「背景D」間では、最大「空間突出度画像情報」dが、形成され、「混G」「混H」間では、最大融合範囲を越えているため、図6の場合のような両形組融合画像情報hは、起こらず、結果、「空間歪性度画像情報」hは、形成できない。 Due to this left / right shift, the maximum “spatial protrusion image information” d is formed between “background C” and “background D”, and the maximum fusion range is exceeded between “mixed G” and “mixed H”. Therefore, the bimorphic combination image information h as in the case of FIG. 6 does not occur, and as a result, “spatial distortion degree image information” h cannot be formed.

しかし、人の視中枢内には、前記、視中枢内に、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この機能の働きにより、両離輻輳融合画像情報hhが、形成されることになり、最大「空間突出度画像情報」dを背景として、その上空に同空間内の想定表示画面上に歪んだ「空間歪性度画像情報」hhが、形成されることになる。 However, in the human visual center, it is considered that the “right and left parallax creation function for convergence that superimposes and fuses the moving gazing point image information to the definite fused image information” is present in the visual center. Therefore, the function of this function results in the formation of both deconvergence fusion image information hh, which is distorted on the assumed display screen in the same space with the maximum “space projection image information” d as the background. That is, “spatial distortion degree image information” hh is formed.

つまり、飛び出た大きなピラミッドd上空に、想定表示画面上に歪んだ小さなピラミッドhhが、見えることになる。   That is, a small pyramid hh distorted on the assumed display screen can be seen in the sky above the large pyramid d that has popped out.

前記「混G」「混H」間の左右のずれを、さらに、広げて左右にずらすと、前記上空より、さらに、d上空に、想定表示画面上に歪んだ小さなピラミッドhhが、見えることになる。   When the left / right shift between the “mixed G” and “mixed H” is further widened and shifted to the left and right, a small pyramid hh distorted on the assumed display screen can be seen in the sky above d and further above d. Become.

この連続した誘導表示を重ねながら、「混G」「混H」間の左右のずれを徐々に、広げていくことにより、歪んだ小さなピラミッドhhが、目前まで、迫って見える位置にまで、輻輳融合画像情報hh視点を導くことが、可能となる。   While overlapping this continuous guidance display, the left and right shifts between “Mix G” and “Mix H” are gradually widened, so that the distorted small pyramid hh is congested to the position where it can be seen immediately. It is possible to derive the fusion image information hh viewpoint.

また、前記左右のずれを徐々に、広げていくとき、「混G」「混H」自身を、徐々に、横、もしく、縦横均等に、拡大していくことにより、前記より、さらに、現実味のある目前まで、迫る、輻輳融合画像情報hhの視点誘導となる。   In addition, when gradually expanding the left-right shift, the “mixed G” “mixed H” itself is gradually expanded horizontally, horizontally, vertically and horizontally evenly. The viewpoint guidance of the convergence fused image information hh is approaching to the real present.

また、これとは、逆に、「混G」「混H」間の左右のずれを徐々に、狭めていくことにより
図6と、同じ状態となり、さらに、「混G」「混H」間の最大「空間歪性度画像情報」hの最大値を、0値にすれば、平面画像情報の小さな四角錘に、戻ることになる。
Conversely, the left and right shifts between “Mixed G” and “Mixed H” are gradually reduced to the same state as in FIG. If the maximum value of the maximum “spatial distortion degree image information” h is set to 0 value, it returns to a square pyramid with small plane image information.

次に、〔課題を解決するための手段〕4項に記載の『両形融合画像情報と「両形融合画像情報による上下両離輻輳融合画像情報」』を、図をもちいて、説明すると、
図8は、
公知技術の両形融合画像情報jによる、最大「空間深度画像情報」jの生成過程を表している。
Next, [Means for Solving the Problems] “Dual fusion image information and“ upper and lower deconvergence fusion image information by bimodal fusion image information ”” described in item 4 will be described with reference to the drawings.
FIG.
This shows the generation process of the maximum “spatial depth image information” j based on the known bimodal fusion image information j.

詳細すると、図8は、縦35mm横35mmの正方形四角錘Qを 縦方向に沿って横長方向に5mm均等間隔で、切り分け7細分し、「大形像系画像情報」Iと「小形像系画像情報」Jの2つに分けている。 More specifically, FIG. 8 shows that a square square weight Q having a length of 35 mm and a width of 35 mm is divided into 7 parts by dividing the square square weight Q along the lengthwise direction in the horizontally long direction by 5 mm at equal intervals. The image information “J” is divided into two.

以下、このI、Jを、「細I」、「細J」と各呼称する。 Hereinafter, these I and J will be referred to as “Fine I” and “Fine J”, respectively.

「細I」、「細J」は、7細分されているため、各々「細I」Ia〜Isと「細J」Jb〜Jtに、各分かれている。 Since “Fine I” and “Fine J” are subdivided into seven, they are divided into “Fine I” Ia to Is and “Fine J” Jb to Jt, respectively.

「細I」、「細J」との融合からは、公知技術の両形融合画像情報が起き、結果、最大「空間深度画像情報」jが得られる。 From the fusion with “Fine I” and “Fine J”, known bimodal fusion image information occurs, and as a result, the maximum “spatial depth image information” j is obtained.

当然「細I」Iaと「細J」Jb、「細I」Icと「細J」Jd、「細I」Ieと「細J」Jf、「細I」Igと「細J」Jh、「細I」Ioと「細J」JP、「細I」Iqと「細J」Jr、「細I」Isと「細J」Jtの各間も、それぞれ両形融合画像情報jに最大「空間深度画像情報」jb〜jtが、得られている。  Naturally, “Fine I” Ia and “Fine J” Jb, “Fine I” Ic and “Fine J” Jd, “Fine I” Ie and “Fine J” Jf, “Fine I” Ig and “Fine J” Jh, “ Between each of “Fine I” Io and “Fine J” JP, “Fine I” Iq and “Fine J” Jr, “Fine I” Is and “Fine J” Jt, respectively, the maximum “space” is obtained for the bimorphic fusion image information j. Depth image information “jb to jt” is obtained.

この最大「空間深度画像情報」j内の、jb〜jtは、同一空間内に有るため、この空間内の想定表示面より奥まった7つに裁断され、6本の切れ目が均等に入っている縦横35mmの大きなピラミッド型jの窪みが、見えることになる。    Since jb to jt in this maximum “space depth image information” j are in the same space, they are cut into seven deeper than the assumed display surface in this space, and six cuts are evenly included. A large pyramid-shaped depression having a length and width of 35 mm can be seen.

この大きなピラミッド型の窪みは、最大融合範囲Zから、生み出されているため、これ以上の「空間深度画像情報」jを、形成できない。 Since this large pyramid-shaped depression is generated from the maximum fusion range Z, no more “depth image information” j can be formed.

図7は、
図8の各構成要因を、1部は 変えず、他は、少しづつ横に伸張して、4段階に分け、左右にずらし、図7のように「谷型」に再配置されている。
FIG.
Each component in FIG. 8 is not changed in one part, and the others are gradually expanded horizontally, divided into four stages, shifted left and right, and rearranged in a “valley” as shown in FIG.

詳細すると、
「細I」Igと「細J」Jhの各間は、そのまま、
「細I」Ieと「細J」Jf、「細I」Ioと「細J」Jpの各間は、各元の画像情報より各々2.5mm横に伸張し、各左右にずらし、
「細I」Icと「細J」Jd、「細I」Iqと「細J」Jrの各間は、各元の画像情報より各々5mm横に伸張し、各左右にずらし、
「細I」Iaと「細J」Jb、「細I」Isと「細J」Jtの各間は、各元の画像情報より各々7.5mm横に伸張し、各左右にずらしている。
In detail,
Between each of “Fine I” Ig and “Fine J” Jh,
Between each of “Fine I” Ie and “Fine J” Jf, “Fine I” Io and “Fine J” Jp, the original image information is expanded 2.5 mm laterally and shifted to the left and right.
Between each of “Fine I” Ic and “Fine J” Jd, “Fine I” Iq and “Fine J” Jr, the original image information is extended 5 mm laterally and shifted to the left and right.
“Fine I” Ia and “Fine J” Jb, and “Fine I” Is and “Fine J” Jt are each extended by 7.5 mm from the original image information and shifted to the left and right.

「細I」Igと「細J」Jhの各間は、そのままのサイズのため、図8のjhと同様、図7も最大「空間深度画像情報」jjhを得られるが、
「細I」Iaと「細J」Jb、「細I」Icと「細J」Jd、「細I」Ieと「細J」Jf、「細I」Ioと「細J」Jp、「細I」Iqと「細J」Jr、「細I」Isと「細J」Jt、の各間は、それぞれ伸張し、左右にずらしているため、図8の様な最大「空間深度画像情報」jb,jd、jf、jp、jr、jtは、形成できず、図7の未両形融合画像情報状態である、「細i」iaicieioiqisとなる。
Since each of “Fine I” Ig and “Fine J” Jh is the same size, FIG. 7 can obtain the maximum “Spatial Depth Image Information” jjh, similarly to jh of FIG.
"Fine I" Ia and "Fine J" Jb, "Fine I" Ic and "Fine J" Jd, "Fine I" Ie and "Fine J" Jf, "Fine I" Io and "Fine J" Jp, "Fine Since each of “I” Iq and “Fine J” Jr, “Fine I” Is and “Fine J” Jt is expanded and shifted left and right, the maximum “Spatial Depth Image Information” as shown in FIG. “jb”, “jd”, “jf”, “jp”, “jr”, and “jt” cannot be formed, and become “Fine i” iaieiioiqis, which is the unmangled fused image information state of FIG.

しかし、人の視中枢内には、前記、視中枢内に、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この機能の働きにより、『両形融合画像情報jjhと「両形融合画像情報jjhを除くjjb〜jjtによる上下両離輻輳融合画像情報jj」』が、形成されることになり、最大「空間深度画像情報」jjhを背景として、その上空に同空間内の想定表示画面上にピラミッド型の1部が、窪んだ「空間深度画像情報」jjf,jjpが、最初の輻輳融合行為で、飛び出して形成されることになる。 However, in the human visual center, it is considered that the “right and left parallax creation function for convergence that superimposes and fuses the moving gazing point image information to the definite fused image information” is present in the visual center. Therefore, by the function of this function, “both-shaped fusion image information jjh and“ upper and lower separated convergence image information jj by jjb to jjt excluding both-shape fusion image information jjh ”” are formed. Spatial depth image information "jjh" as a background, a pyramid-shaped part on the assumed display screen in the same space above, and the recessed "spatial depth image information" jjf, jjp pop out in the first convergence fusion action Will be formed.

さらに、 前記と同時に、「空間深度画像情報」jjf,jjpの上空には、同空間内の想定表示画面上にピラミッド型の1部が、窪んだ「空間深度画像情報」jjd,jjrが、連続した2番目の輻輳融合行為で、さらに、飛び出して形成されることになる。  Further, at the same time as above, in the sky above the “space depth image information” jjf, jjp, a part of the pyramid type is continuously formed on the assumed display screen in the same space, and the “space depth image information” jjd, jjr is continuous. In the second convergence fusion action, it is formed by popping out further.

さらに、 前々記と同時に、「空間深度画像情報」jjd,jjrの上空には、同空間内の想定表示画面上にピラミッド型の1部が、窪んだ「空間深度画像情報」jjb、jjtが、連続した3番目の輻輳融合行為で、さらに飛び出して、形成されることになる。  Furthermore, at the same time as the previous description, a part of the pyramid type is formed on the assumed display screen in the same space above the “space depth image information” jjd, jjr, and “space depth image information” jjb, jjt is recessed. In the third continuous convergence and fusion action, it will jump out and be formed.

つまり、『両形融合画像情報と「両形融合画像情報による上下両離輻輳融合画像情報」』により、「空間深度画像情報」jj、および、jjb,jjd、jjf、jjh、jjp、jjr、jjtを形成することになる。 In other words, “spatial depth image information” jj, and jjb, jjd, jjf, jjh, jjp, jjr, jjt, according to “both-shaped fused image information and“ upper and lower separated convergence image information based on both-shaped fused image information ””. Will be formed.

つまり、想定表示画面上に窪んでいる、大きなピラミッド型の頂上部、から、手前上空へ、連続した3回の輻輳融合行為で、さらに、迫ってくる、6本の切れ目が均等に入っている大きなピラミッド型の窪みが、順に、4段階で迫りながら見えてくることになる。   In other words, from the top of the large pyramid shape, which is recessed on the assumed display screen, from the top of the foreground to the foreground, there are six continuous cuts that are even closer, and 6 cuts are evenly included. Large pyramid-shaped depressions will be visible in four steps.

前記「細J」、「細I」の7分割を、さらに、細分割してゆけば、さらに、緻密で、迫力ある『両形融合画像情報jjhと「両形融合画像情報jjhを除くjjb〜jjtによる上下両離輻輳融合画像情報jj」』が、得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動きも、緻密に再現できることになる。 If the seven subdivisions of “Fine J” and “Fine I” are further subdivided, the more detailed and powerful “bimodal fusion image information jjh and“ jjb excluding bimodal fusion image information jjh˜ jjt's up and down convergence convergence image information jj "" is obtained, and subtle and powerful movements approaching the water, pool, seawater, mist, rain, perspective land, landscape, etc. It can be reproduced.

前記「細J」、「細I」の7均等分割、もしくは、均等細分割の各均等比率を、徐々に増減した比率と置き換えれば、さらに、緻密で、迫力ある『両形融合画像情報jjhと「両形融合画像情報jjhを除くjjb〜jjtによる上下両離輻輳融合画像情報jj」』が、得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動きも、緻密により迫ってくるもの、もしくは、より逃退くものとして、再現できることになる。 If each equal ratio of the above-mentioned “fine J” and “fine I” is divided into seven equal divisions or equal subdivisions, a more gradually increased or decreased ratio, a more precise and powerful “bimodal fusion image information jjh and "Jjb to jjt excluding both-shaped fusion image information jjb up and down convergence convergence image information jj" "is obtained, approaching the water, pool, seawater, fog, rain, perspective earth / landscape Subtle and powerful movements can be reproduced as those that come closer or more escape.

前記図7の「谷型」の再配置を 図13の「山型」(図13の51)・「谷型」(図13の52)・2種の「傾斜型」(図13の53・54)の1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせに再配置、もしくは、前記さらに、細分割したものを、前記同「型」に再配置すれば、さらに、各場面状況に、最適の『両形融合画像情報jjhと「両形融合画像情報jjhを除くjjb〜jjtによる上下両離輻輳融合画像情報jj」』が得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動き・全体的流れを、さらに緻密・現実味ある形で、再現できることになる。 The rearrangement of the “valley type” in FIG. 7 is changed to “mountain shape” in FIG. 13 (51 in FIG. 13), “valley type” (52 in FIG. 13), two types of “inclined type” (53 in FIG. 13). 54) one or more, one or more various combinations, or one or more various superpositions, or the further subdivided ones are rearranged in the same "type", Furthermore, optimal “bimodal fusion image information jjh and“ upper and lower convergence convergence image information jj by jjb to jjt excluding bimodal fusion image information jj ”” is obtained for each scene situation, and water, pool, seawater It is possible to reproduce the subtle and powerful movements and the overall flow that are approaching in front of you, such as fog, rain, and squint earth / landscape, in a more precise and realistic manner.

また、前記「細J」、「細I」の7分割を、少しづつ横に伸張して、4段階に分け、左右にずらし、図7のように再配置されていく過程で、この伸張段階の増加度、および、左右のずれ度を、徐々に上げ、前記両離輻輳融合画像情報jj最大範囲まで、上げて行けば、さらに、上空に、伸びてくる 大きなピラミッド型の窪みjjが、見えることになる。 In addition, the seven divisions of “Fine J” and “Fine I” are gradually expanded horizontally, divided into four stages, shifted left and right, and rearranged as shown in FIG. If you gradually increase the degree of increase and the degree of left / right shift to the maximum range of the deconvergence fusion image information jj, you can see a large pyramid-shaped depression jj that extends further upward. It will be.

本特許明細書では、前記伸張段階の増加を、2.5mmづつ増加する4段階伸張で、説明しているが、5mm増加でも、離れて、観察すると 何とか可能である。 In this patent specification, the increase in the extension step is described as a four-step extension that increases by 2.5 mm, but even if it increases by 5 mm, it can be managed by observation.

しかし、一概に、数値による範囲の限定は、できない。 However, in general, the range cannot be limited by numerical values.

何故ならば、観察視聴者の表示画像情報を見る位置と表示面までの距離・表示面の大きさ、分割数などの各条件によって、各々該数値が、様々に異なってくると思われるからである。 This is because the numerical values may vary depending on the viewing viewer's display image information position, the distance to the display surface, the size of the display surface, the number of divisions, etc. is there.

また、これとは、逆に、前記、伸張段階の増加度、および、左右のずれ度を、徐々に下げて行くと、図8と、同じ状態となり、さらに、「細J」、「細I」間の最大「空間深度画像情報」jの最大値を、0値にすれば、平面画像情報の大きな四角錘に、戻ることになる。   On the other hand, when the degree of increase in the expansion stage and the degree of left / right shift are gradually lowered, the same state as in FIG. 8 is obtained, and further, “Fine J”, “Fine I” are obtained. If the maximum value of the maximum “spatial depth image information” j is set to 0 value, it will return to a square pyramid with large planar image information.

次に、〔課題を解決するための手段〕5項に記載の『両組融合画像情報と「両組融合画像情報による上下両離輻輳融合画像情報」』を、図をもちいて、説明すると、
図10は、
公知技術の両組融合画像情報lによる、最大「空間突出度画像情報」lの生成過程を表している。
Next, “both sets fusion image information and“ upper and lower convergence convergence image information by both sets fusion image information ”” described in [5] [Means for Solving the Problem] will be described with reference to the drawings.
FIG.
This shows a process of generating the maximum “spatial protrusion image information” l by using both sets of fused image information 1 of the known technology.

詳細すると、図10は、縦35mm横35mmの正方形四角錘 図8のQを 縦方向に沿って、横長方向に5mm均等間隔で、切り分け7細分し、図10の「組形像系画像情報」K・Lの2つに分けている。 More specifically, FIG. 10 shows a square quadrangular pyramid having a length of 35 mm and a width of 35 mm. The Q in FIG. 8 is divided into seven subdivisions at equal intervals of 5 mm in the horizontal direction along the vertical direction. It is divided into K and L.

以下、このK、Lを、「細K」、「細L」と各呼称する。 Hereinafter, these K and L are referred to as “fine K” and “fine L”, respectively.

「細K」、「細L」は、7細分されているため、各々「細K」Ka〜Ksと「細L」Lb〜Ltに、各分かれている。 Since “Fine K” and “Fine L” are subdivided into seven, they are divided into “Fine K” Ka to Ks and “Fine L” Lb to Lt, respectively.

「細K」、「細L」との融合からは、公知技術の両組融合画像情報lが起き、結果、最大「空間突出度画像情報」lが得られる。 From the fusion with “Fine K” and “Fine L”, both sets of fused image information 1 of the known technology occurs, and as a result, the maximum “Spatial protrusion degree image information” 1 is obtained.

当然「細K」Kaと「細L」Lb、「細K」Kcと「細L」Ld、「細K」Keと「細L」Lf、「細K」Kgと「細L」Lh、「細K」Koと「細L」LP、「細K」Kqと「細L」Lr、「細K」Ksと「細L」Ltの各間も、それぞれ最大「空間突出度画像情報」lb〜ltが、得られている。  Naturally, “Fine K” Ka and “Fine L” Lb, “Fine K” Kc and “Fine L” Ld, “Fine K” Ke and “Fine L” Lf, “Fine K” Kg and “Fine L” Lh, “ Between each of “Fine K” Ko and “Fine L” LP, “Fine K” Kq and “Fine L” Lr, and “Fine K” Ks and “Fine L” Lt, the maximum “Spatial protrusion image information” lb˜ lt is obtained.

この最大「空間突出度画像情報」l内の、lb〜ltは、同一空間内に有るため、この空間内の想定表示面より飛び出した、6本の切れ目が均等に入っている縦横35mmの大きなピラミッドlが、見えることになる。   Since lb to lt in the maximum “spatial protrusion degree image information” l are in the same space, a large size of 35 mm in length and breadth that protrudes from the assumed display surface in this space and contains six cuts equally. The pyramid l will be visible.

この飛び出した大きなピラミッドlは、最大融合範囲Zから、生み出されているため、これ以上の「空間突出度画像情報」lを、形成できない。   Since the protruding large pyramid l is generated from the maximum fusion range Z, no more “spatial protrusion degree image information” l can be formed.

図9は、
図10の各構成要因を、1部(KaとLb・KsとLt)は 変えず、他は、少しづつ横に伸張して、4段階に分け、左右にずらし、図9のように「山型」Ka〜Ks・Lb〜Ltに、再配置されている。
FIG.
Each component in FIG. 10 is not changed in one part (Ka, Lb, Ks, and Lt), and the others are gradually expanded horizontally, divided into four stages, shifted to the left and right, as shown in FIG. It is rearranged in the types “Ka˜Ks · Lb˜Lt”.

詳細すると、
「細K」Kaと「細L」Lb、「細K」Ksと「細L」Ltの各間は、そのまま、
「細K」Kcと「細L」Ld、「細K」Kqと「細L」Lrの各間は、各元の画像情報より各々2.5mm横に伸張し、各左右にずらし、
「細K」Keと「細L」Lf、「細K」Koと「細L」Lpの各間は、各元の画像情報より各々5mm横に伸張し、各左右にずらし、
「細K」Kgと「細L」Lhの各間は、各元の画像情報より各々7.5mm横に伸張し、各左右にずらしている。
In detail,
Between each of “Fine K” Ka and “Fine L” Lb, “Fine K” Ks and “Fine L” Lt,
Between each of “Fine K” Kc and “Fine L” Ld, and “Fine K” Kq and “Fine L” Lr, the original image information is expanded 2.5 mm laterally and shifted to the left and right.
Between each of “Fine K” Ke and “Fine L” Lf, and “Fine K” Ko and “Fine L” Lp are each extended by 5 mm from the original image information, shifted to the left and right,
The distance between “Fine K” Kg and “Fine L” Lh is respectively extended by 7.5 mm from the original image information, and is shifted to the left and right.

「細K」Kaと「細L」Lb、「細K」Ksと「細L」Ltの各間は、そのままのサイズのため、図10のlbとltと同様、図9も最大「空間深度画像情報」llbとlltを得られるが、
「細K」Kcと「細L」Ld、「細K」Keと「細L」Lf、「細K」Kgと「細L」Lh、「細K」Koと「細L」Lp、「細K」Kqと「細L」Lr、の各間は、それぞれ伸張し、左右にずらしているため、図10の様な最大「空間突出度画像情報」ld〜lrは、形成できず、図9の未両形融合画像情報状態である、「細t」tctetgtoKqとなる。
Since each of “Fine K” Ka and “Fine L” Lb, and “Fine K” Ks and “Fine L” Lt is the same size, FIG. Image information "llb and llt can be obtained,
"Fine K" Kc and "Fine L" Ld, "Fine K" Ke and "Fine L" Lf, "Fine K" Kg and "Fine L" Lh, "Fine K" Ko and "Fine L" Lp, "Fine Since each of “K” Kq and “Fine L” Lr is expanded and shifted to the left and right, the maximum “spatial protrusion degree image information” ld to lr as shown in FIG. 10 cannot be formed. It is “thin t” tctetgtoKq which is the state of the non-bimorphic fused image information.

しかし、人の視中枢内には、前記、視中枢内に、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この機能の働きにより、『両組融合画像情報llb・lltと「両組融合画像情報lld〜llrによる上下両離輻輳融合画像情報ll」』が、形成されることになり、最大「空間突出度画像情報」llblltをピラミッドの底辺部の背景として、その上空に同空間内の想定表示画面上に、飛び出した大きいピラミッドの1部「空間突出度画像情報」lld,llrが、最初の輻輳融合行為で、飛び出して形成されることになる。 However, in the human visual center, it is considered that the “right and left parallax creation function for convergence that superimposes and fuses the moving gazing point image information to the definite fused image information” is present in the visual center. Therefore, by the function of this function, “both sets of fusion image information llb / llt and“ both sets of fusion image information lld to llr ”are formed. Projection degree image information "llbllt is used as the background of the bottom of the pyramid, and on the assumed display screen in the same space, a part of the large pyramid that protrudes" space projection degree image information "lld, llr is the first congestion. It will be formed as a result of fusion.

さらに、 前記と同時に、「空間突出度画像情報」lld,llrの上空には、同空間内の想定表示画面上に大きいピラミッドの1部が、連続した2番目の輻輳融合行為で、さらに飛び出している「空間突出度画像情報」llf,llpが、形成されることになる。  Furthermore, at the same time as above, a part of the large pyramid on the assumed display screen in the same space pops out further in the continuous second convergence fusion action above the “space projection image information” lld, llr. "Spatial protrusion degree image information" 11f and 11p are formed.

さらに、 前々記と同時に、「空間突出度画像情報」llf,llpの上空には、同空間内の想定表示画面上に大きいピラミッドの頂点部llhが、連続した3番目の輻輳融合行為で、さらに、飛び出している「空間突出度画像情報」llhが、形成されることになる。  Furthermore, at the same time as the above, in the sky above the “space projection image information” llf, llp, the apex portion llh of the large pyramid on the assumed display screen in the same space is the third continuous convergence action. Furthermore, the protruding “spatial protrusion degree image information” llh is formed.

つまり、『両組融合画像情報llb・lltと「両組融合画像情報lld〜llrによる上下両離輻輳融合画像情報ll」』により、「空間突出度画像情報」ll、および、llb〜lltを形成することになる。 In other words, “spatial protrusion image information” ll and llb to llt are formed from “both sets of fused image information llb / llt and“ both sets of fused image information lld to llr ”. Will do.

つまり、想定表示画面上に大きく飛び出してくる、6本の切れ目が均等に入っている大きなピラミッドllが、順に、4段階で迫りながら見えてくることになる。   In other words, a large pyramid ll with six cuts that are evenly popped out on the assumed display screen appears in order in four steps.

前記「細K」「細L」の7分割を、さらに、細分割してゆけば、さらに、緻密で、迫力ある『両組融合画像情報llb・lltと「両組融合画像情報lld〜llrによる上下両離輻輳融合画像情報ll」』が、得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動きも、緻密に再現できることになる。 If the seven subdivisions of “Fine K” and “Fine L” are further subdivided, they become more detailed and powerful “by both sets of fusion image information llb / llt and“ both sets of fusion image information lld to llr. The top and bottom convergence convergence image information ll ”” is obtained, and subtle and powerful movements approaching the surface of water, pools, seawater, fog, rain, squinting earth and landscapes can be reproduced precisely. become.

前記「細K」「細L」の7均等分割、もしくは、均等細分割の各均等比率を、徐々に増減した比率と置き換えれば、さらに、緻密で、迫力ある『両組融合画像情報llb・lltと「両組融合画像情報lld〜llrによる上下両離輻輳融合画像情報ll」』が、得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動きも、緻密により迫ってくるもの、もしくは、より逃退くものとして、再現できることになる。 If the 7 equal divisions of “Fine K” and “Fine L”, or each equal ratio of the equal subdivision are replaced with gradually increasing or decreasing ratios, the more detailed and powerful “Both-set fusion image information llb · llt” And “both side convergence image information lld by both sets of fusion image information lld to llr” is obtained, and the subtle approaching to the front of water, pool, seawater, fog, rain, perspective land / landscape etc. Thus, powerful movements can be reproduced as those that come closer or more escape.

前記図9の「山型」の再配置を 図13の「山型」(図13の51)・「谷型」(図13の52)・2種の「傾斜型」(図13の53・54)の1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせに再配置、もしくは、前記さらに、細分割したものを、前記同「型」に再配置すれば、さらに、各場面状況に、最適の『両組融合画像情報llb・lltと「両組融合画像情報lld〜llrによる上下両離輻輳融合画像情報ll」』が得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動き・全体的流れを、さらに緻密・現実味ある形で、再現できることになる。 The rearrangement of the “mountain shape” in FIG. 9 includes the “mountain shape” in FIG. 13 (51 in FIG. 13), the “valley type” (52 in FIG. 13), and the two types of “tilt type” (53 in FIG. 13). 54) one or more, one or more various combinations, or one or more various superpositions, or the further subdivided ones are rearranged in the same "type", Furthermore, optimal “both sets fusion image information llb / llt and“ both sets fusion image information lld to llr ”are obtained for each scene situation”, water, pool, seawater, The subtle and powerful movements and the overall flow approaching the front of the mist, rain, squinting earth and landscape will be reproduced in a more precise and realistic form.

また、前記「細K」「細L」の7分割を、少しづつ横に伸張して、4段階に分け、左右にずらし、図9のように再配置されていく過程で、この伸張段階の増加度、および、左右のずれ度を、徐々に上げ、前記両離輻輳融合画像情報ll最大範囲まで、上げて行けば、さらに、上空に、伸びてくる 大きなピラミッドllが、見えることになる。 In addition, the seven divisions of “Fine K” and “Fine L” are gradually expanded horizontally, divided into four stages, shifted left and right, and rearranged as shown in FIG. If the degree of increase and the degree of left / right shift are gradually increased and increased to the maximum range of the deconvergence fusion image information ll, a large pyramid ll extending in the sky can be seen.

本特許明細書では、前記伸張段階の増加を、2.5mmづつ増加する4段階伸張で、説明しているが、5mm増加でも、離れて、観察すると 何とか可能である。 In this patent specification, the increase in the extension step is described as a four-step extension that increases by 2.5 mm, but even if it increases by 5 mm, it can be managed by observation.

しかし、一概に、数値による範囲の限定は、できない。 However, in general, the range cannot be limited by numerical values.

何故ならば、観察視聴者の表示画像情報を見る位置と表示面までの距離・表示面の大きさなど分割数の各条件によって、各々該数値が、若干変化すると思われるからである。   This is because the numerical values are expected to change slightly depending on the conditions of the number of divisions such as the position of the viewing viewer viewing the display image information, the distance to the display surface, and the size of the display surface.

また、これとは、逆に、前記、伸張段階の増加度、および、左右のずれ度を、徐々に下げて行くと、図10と、同じ状態となり、さらに、「細K」「細L」間の最大「空間突出度画像情報」llの最大値を、0値にすれば、平面画像情報の大きな四角錘に、戻ることになる。 Contrary to this, when the degree of increase in the expansion stage and the degree of left / right shift are gradually lowered, the same state as in FIG. 10 is obtained, and further, “Fine K” and “Fine L”. If the maximum value of the maximum “spatial protrusion image information” ll is set to 0 value, it returns to a square pyramid with large plane image information.

次に、〔課題を解決するための手段〕6項に記載の『両形組融合画像情報と「両形組融合画像情報による上下両離輻輳融合画像情報」』を、図をもちいて、説明すると、    [Means for Solving the Problems] Next, “both-form set fusion image information and“ up-and-down convergence convergence image information based on both-form set fusion image information ”” described in item 6 will be described with reference to the drawings. Then

図12は、
公知技術の両形組融合画像情報nによる、最大「空間歪性度画像情報」nの生成過程を表している。
FIG.
This shows a generation process of the maximum “spatial distortion image information” n based on the well-known bimodal combination image information n.

詳細すると、図12は、図8で使用した「細I」、「細J」と、図10で使用した「細K」、「細L」と同じものを、使用している。 More specifically, FIG. 12 uses the same “Fine I” and “Fine J” used in FIG. 8, and “Fine K” and “Fine L” used in FIG.

「細I」、「細J」は、7細分されているため、各々「細I」Ia〜Isと「細J」Jb〜Jtに、各分かれている。 Since “Fine I” and “Fine J” are subdivided into seven, they are divided into “Fine I” Ia to Is and “Fine J” Jb to Jt, respectively.

「細K」、「細L」も、7細分されているため、各々「細K」Ka〜Ksと「細L」Lb〜Ltに、各分かれている。 “Fine K” and “Fine L” are also subdivided into seven, and are divided into “Fine K” Ka to Ks and “Fine L” Lb to Lt, respectively.

M、Nは、前記図8、10の各組み合わせを除く「細I」、「細J」、「細K」、「細L」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体M、Nである。 M and N are one or more various combinations between “Fine I”, “Fine J”, “Fine K”, and “Fine L” excluding the combinations shown in FIGS. The hybrids M and N are divided into two.

以下、M、Nを「混M」、「混N」と呼称する。 Hereinafter, M and N are referred to as “mixed M” and “mixed N”.

「混M」、「混N」との融合からは、公知技術の両形組融合画像情報nが起き、結果、図12の最大「空間歪性度画像情報」nが得られる。 From the fusion with “Mix M” and “Mix N”, both-form combination image information n of known technology occurs, and as a result, the maximum “Spatial Distortion Image Information” n of FIG. 12 is obtained.

当然、前記図8、10の各組み合わせを除く各々「混M」Ma〜Ms、「混N」Nb〜Ntの各間も、それぞれ最大「空間歪性度画像情報」n、および、nb〜ntが、得られている。  Naturally, the maximum “spatial distortion image information” n and nb to nt between the “mixed M” Ma to Ms and “mixed N” Nb to Nt, respectively, excluding the combinations of FIGS. Is obtained.

この最大「空間歪性度画像情報」n内の、nb〜ntは、同一空間内に有るため、この空間内の想定表示画面上に、歪んだ、6本の切れ目が均等に入っている縦横35mmの大きなピラミッドnが、見えることになる。    Since nb to nt in the maximum “spatial distortion image information” n are in the same space, the distorted six cuts are evenly included on the assumed display screen in this space. A large pyramid n of 35 mm will be visible.

この飛び出した大きなピラミッドnは、最大融合範囲Zから、生み出されているため、これ以上の「空間歪性度画像情報」n、および、nb〜ntを、形成できない。 Since the protruding large pyramid n is generated from the maximum fusion range Z, no more “spatial distortion degree image information” n and nb to nt can be formed.

図11は、
図12「混M」、「混N」の各構成要因を、1部(MaとNb・MsとNt)は 変えず、他(Mc〜Mq・Nd〜Nr)は、少しづつ横に伸張して、4段階に分け、左右にずらし、図11のように再配置されている。
FIG.
Fig. 12 “Mix M” and “Mix N” are not changed in one part (Ma, Nb, Ms, and Nt), and others (Mc to Mq, Nd to Nr) are gradually expanded horizontally. Then, it is divided into four stages, shifted left and right, and rearranged as shown in FIG.

詳細すると、
「混M」Maと「混N」Nb、「混M」Msと「混N」Ntの各間は、そのまま、
「混M」Mcと「混N」Nd、「混M」Mqと「混N」Nrの各間は、各元の画像情報より各々2.5mm横に伸張し、各左右にずらし、
「混M」Meと「混N」Nf、「混M」Moと「混N」Npの各間は、各元の画像情報より各々5mm横に伸張し、各左右にずらし、
「混M」Mgと「混N」Nhの各間は、各元の画像情報より各々7.5mm横に伸張し、各左右にずらしている。
In detail,
Between each of “Mix M” Ma and “Mix N” Nb, “Mix M” Ms and “Mix N” Nt,
Between each of “Mix M” Mc and “Mix N” Nd, “Mix M” Mq and “Mix N” Nr, each original image information is expanded 2.5 mm horizontally and shifted to the left and right.
Between each of “Mix M” Me and “Mix N” Nf, “Mix M” Mo and “Mix N” Np, each original image information is expanded 5 mm laterally and shifted to the left and right.
Between the “mixed M” Mg and the “mixed N” Nh, each of the original image information extends 7.5 mm laterally and is shifted to the left and right.

「混M」Maと「混N」Nb、「混M」Msと「混N」Ntの各間は、そのままのサイズのため、図12のnbとntと同様、図11も最大「空間歪性度画像情報」nnbとnntを得られるが、
「混M」Mcと「混N」Nd、「混M」Meと「混N」Nf、「混M」Mgと「混N」Nh、「混M」Moと「混N」Np、「混M」Mqと「混N」Nr、の各間は、それぞれ伸張し、左右にずらしているため、図12の様な最大「空間歪性度画像情報」,nd、nf、nh、np、nrは、形成できず、図11の未両形融合画像情報状態である、「混MN」mのmcmemgmomqとなる。
Since “Mix M” Ma and “Mix N” Nb, and “Mix M” Ms and “Mix N” Nt are the same sizes, FIG. 11 shows the maximum “spatial distortion” similarly to nb and nt of FIG. Sex image information "nnb and nnt can be obtained,
“Mix M” Mc and “Mix N” Nd, “Mix M” Me and “Mix N” Nf, “Mix M” Mg and “Mix N” Nh, “Mix M” Mo and “Mix N” Np, “Mix Since each of M ”Mq and“ Mixed N ”Nr is expanded and shifted left and right, the maximum“ spatial distortion image information ”, nd, nf, nh, np, nr as shown in FIG. Cannot be formed, and becomes the mcmegmgmomq of the “mixed MN” m, which is the unshaped fusion image information state of FIG.

しかし、人の視中枢内には、前記、視中枢内に、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この機能の働きにより、『両形組融合画像情報nnb・nntと「両形組融合画像情報nnd〜nnrによる上下両離輻輳融合画像情報nn」』が、形成されることになり、最大「空間突出度画像情報」nnb・nntをピラミッドの底辺部の背景として、その上空に同空間内の想定表示画面上に、歪んだ大きいピラミッドの1部「空間歪性度画像情報」nnd,nnrが、最初の輻輳融合行為で、飛び出して形成されることになる。 However, in the human visual center, it is considered that the “right and left parallax creation function for convergence that superimposes and fuses the moving gazing point image information to the definite fused image information” is present in the visual center. Therefore, by the function of this function, “both-form set fusion image information nnb · nnt and“ both-form set fusion image information nnd to nnnr upper and lower convergence convergence image information nn ”” is formed. “Spatial protrusion degree image information” nnb · nnt is used as the background of the base of the pyramid, and a part of the large distorted pyramid “spatial skewness degree image information” nnd, nnr above the assumed display screen in the same space. However, it will be formed in the first convergence fusion action.

さらに、 前記と同時に、「空間歪性度画像情報」nnd,nnrの上空には、同空間内の想定表示画面上に大きいピラミッドの1部が、同様に歪んでいる「空間歪性度画像情報」nnf,nnpが、連続した2番目の輻輳融合行為で、さらに飛び出して、形成されることになる。  Further, at the same time as described above, “spatial distortion image information” in which a part of a large pyramid is similarly distorted on the assumed display screen in the same space above the “spatial distortion image information” nnd and nnr. Nnf and nnp are formed by popping out further in the second continuous convergence action.

さらに、 前々記と同時に、「空間歪性度画像情報」nnf,nnpの上空には、同空間内の想定表示画面上に大きいピラミッドの頂点部が、同様に、歪んでいる「空間歪性度画像情報」nnhが、連続した3番目の輻輳融合行為で、さらに飛び出して、形成されることになる。  Furthermore, at the same time as the previous description, in the sky above the “spatial distortion degree image information” nnf, nnp, the apex portion of the large pyramid is similarly distorted on the assumed display screen in the same space. The degree image information “nnh” is further popped out and formed by the third continuous convergence action.

つまり、『両形組融合画像情報nnb・nntと「両形組融合画像情報nnd〜nnrによる上下両離輻輳融合画像情報nn」』により、「空間歪性度画像情報」nn、および、nnb〜nntを形成することになる。 That is, the “spatial distortion degree image information” nn and nnb˜ are obtained from “both-shaped set fusion image information nnb · nnt and“ both-form set fusion image information nnd to nnnr ”. nnt will be formed.

つまり、想定表示画面上に大きく飛び出してくる、6本の切れ目が均等に入っている歪んだ大きなピラミッドnnが、順に、4段階で迫りながら見えて来ることになる。   In other words, a large distorted pyramid nn with six cuts that are evenly popped out on the assumed display screen appears in order in four steps.

前記「混M」「混N」の7分割を、さらに、細分割してゆけば、さらに、緻密で、迫力ある『両形組融合画像情報nnb・nntと「両形組融合画像情報nnd〜nnrによる上下両離輻輳融合画像情報nn」』が、得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動きも、緻密に再現できることになる。 If the “mixed M” and “mixed N” are further subdivided into seven subdivisions, the more detailed and powerful “bimorphic set fusion image information nnb · nnt and“ bimorphic set fusion image information nnd˜ nnr's up-and-down convergence convergence image information nn "" is obtained, and subtle and powerful movements approaching the water, swimming pool, seawater, fog, rain, perspective earth and landscape, etc. It can be reproduced.

前記「混M」「混N」の7均等分割、もしくは、均等細分割の各均等比率を、徐々に増減した比率と置き換えれば、さらに、緻密で、迫力ある『両形組融合画像情報nnb・nntと「両形組融合画像情報nnd〜nnrによる上下両離輻輳融合画像情報nn」』が、得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動きも、緻密により迫ってくるもの、もしくは、より逃退くものとして、再現できることになる。 If each equal ratio of 7 equal divisions or equal subdivisions of “Mix M” and “Mix N” is replaced with a gradually increasing / decreasing ratio, a more precise and powerful “bimorphic fusion image information nnb. nnt and “both-shaped combined image information nnd to nnr up and down convergence convergence image information nn” ”are obtained and approaching the water / pool / seawater / fog / rain / perspective land / landscape Subtle and powerful movements can be reproduced as those that come closer or more escape.

前記図11の「山型」の再配置を 図13の「山型」(図13の51)・「谷型」(図13の52)・2種の「傾斜型」(図13の53・54)の1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせに再配置、もしくは、前記さらに、細分割したものを、前記同「型」に再配置すれば、さらに、各場面状況に、最適の『両形組融合画像情報nnb・nntと「両形組融合画像情報nnd〜nnrによる上下両離輻輳融合画像情報nn」』が得られ、水や、プール、海水、霧、雨、斜視の大地・風景などの目前に迫ってくる微妙で、迫力ある動き・全体的流れを、さらに緻密・現実味ある形で、再現できることになる。 The rearrangement of the “mountain shape” in FIG. 11 includes the “mountain shape” in FIG. 13 (51 in FIG. 13), the “valley type” (52 in FIG. 13), and the two types of “tilt type” (53 in FIG. 13). 54) one or more, one or more various combinations, or one or more various superpositions, or the further subdivided ones are rearranged in the same "type", Furthermore, the optimal “both-shape set fusion image information nnb · nnt and“ both-shape set fusion image information nnd to nnnr up and down convergence convergence image information nn ”” is obtained for each situation, and water, pool, The subtle and powerful movements and the overall flow approaching the sea, fog, rain, perspective land and landscape will be reproduced in a more precise and realistic form.

また、前記「混M」「混N」の7分割を、少しづつ横に伸張して、4段階に分け、左右にずらし、図11のように再配置されていく過程で、この伸張段階の増加度、および、左右のずれ度を、徐々に上げ、前記両離輻輳融合画像情報nn最大範囲まで、上げて行けば、さらに、上空に、伸びてくる 歪んだ大きなピラミッドnnが、見えることになる。 In addition, the seven divisions of “Mix M” and “Mix N” are gradually expanded horizontally, divided into four stages, shifted left and right, and rearranged as shown in FIG. If you gradually increase the degree of increase and the degree of left / right deviation and increase it to the maximum range of both deconvergence fusion image information nn, you can see a large and distorted pyramid nn that extends upward. Become.

本特許明細書では、前記伸張段階の増加を、2.5mmづつ増加する4段階伸張で、説明しているが、5mm増加でも、離れて、観察すると 何とか可能である。 In this patent specification, the increase in the extension step is described as a four-step extension that increases by 2.5 mm, but even if it increases by 5 mm, it can be managed by observation.

しかし、一概に、数値による範囲の限定は、できない。 However, in general, the range cannot be limited by numerical values.

何故ならば、観察視聴者の表示画像情報を見る位置と表示面までの距離・表示面の大きさなど分割数の各条件によって、各々該数値が、若干変化すると思われるからである。 This is because the numerical values are expected to change slightly depending on the conditions of the number of divisions such as the position of the viewing viewer viewing the display image information, the distance to the display surface, and the size of the display surface.

また、これとは、逆に、前記、伸張段階の増加度、および、左右のずれ度を、徐々に下げて行くと、図12と、同じ状態となり、さらに、「混M」「混N」間の最大「空間歪性度画像情報」nnの最大値を、0値にすれば、平面画像情報の大きな四角錘に、戻ることになる。 Contrary to this, when the degree of increase in the expansion stage and the degree of left / right shift are gradually lowered, the state becomes the same as in FIG. 12, and “Mix M” “Mix N” If the maximum value of “spatial distortion image information” nn in the meantime is set to 0, it returns to a quadrangular pyramid with large planar image information.

次に、〔課題を解決するための手段〕7項に記載の『両形融合画像情報と「両形融合画像情報による左右両離輻輳融合画像情報」』を、図をもちいて、説明すると、
図29は、
公知技術の両形融合画像情報sによる、最大「空間深度画像情報」sの生成過程を表している。
Next, [Means for Solving the Problems] “Dual form fusion image information and“ Right and left defocused fusion image information by the double form fusion image information ”” described in item 7 will be described with reference to the drawings.
FIG.
This shows the generation process of the maximum “spatial depth image information” s based on the well-known bimodal fusion image information s.

詳細すると、図29は、縦35mm横35mmの正方形大の四角錘Xを 横方向に沿って、縦長方向に5mm均等間隔で、切り分け7細分し、「大形像系画像情報」Rと「小形像系画像情報」Sの2つに分けている。 Specifically, FIG. 29 shows that a large square pyramid X having a length of 35 mm and a width of 35 mm is divided into 7 parts along the horizontal direction and at an equal interval of 5 mm in the vertical direction. The image-type image information “S” is divided into two.

以下、このR、Sを、「細R」、「細S」と各呼称する。 Hereinafter, R and S will be referred to as “fine R” and “fine S”, respectively.

「細R」、「細S」は、7細分されているため、各々「細R」Ra〜Rsと「細S」Sb〜Stに、各分かれている。 Since “Fine R” and “Fine S” are subdivided into seven, they are divided into “Fine R” Ra to Rs and “Fine S” Sb to St, respectively.

「細R」、「細S」との融合からは、公知技術の両形融合画像情報sが起き、結果、最大「空間深度画像情報」sが得られる。 From the fusion with “fine R” and “fine S”, known bimodal fusion image information s occurs, and the maximum “spatial depth image information” s is obtained as a result.

当然「細R」Raと「細S」Sb、「細R」Rcと「細S」Sd、「細R」Reと「細S」Sf、「細R」Rgと「細S」Sh、「細R」Roと「細S」SP、「細R」Rqと「細S」Sr、「細R」Rsと「細S」Stの各間も、それぞれ両形融合画像情報sb〜stに最大「空間深度画像情報」sb〜stが、得られている。  Naturally, “Fine R” Ra and “Fine S” Sb, “Fine R” Rc and “Fine S” Sd, “Fine R” Re and “Fine S” Sf, “Fine R” Rg and “Fine S” Sh, “ Between each of “Fine R” Ro and “Fine S” SP, “Fine R” Rq and “Fine S” Sr, and “Fine R” Rs and “Fine S” St, respectively, is maximum in the bimodal fusion image information sb to st. “Spatial depth image information” sb to st is obtained.

この最大「空間深度画像情報」s内の、sb〜stは、同一空間内に有るため、この空間内の想定表示面より奥まった7つに裁断され、6本の切れ目が均等に入っている縦横35mmの大きなピラミッド型の窪みsが、見えることになる。   Since sb to st in the maximum “space depth image information” s are in the same space, they are cut into seven deeper than the assumed display surface in this space, and six cuts are evenly included. A large pyramid-shaped depression s having a length and width of 35 mm can be seen.

この大きなピラミッド型の窪みsは、最大融合範囲Zから、生み出されているため、これ以上の「空間深度画像情報」sを、形成できない。 Since this large pyramid-shaped depression s is generated from the maximum fusion range Z, no more “depth image information” s can be formed.

図28は、図29の各構成要因を、1部(ShとRg間)は 動かさず、他は(Shを除くSb〜StとRgを除くRa〜Rs間)、少しづつ異なる様に違えて、左右に、ずらして、4段階に分け、図28のように、再配置されている。 FIG. 28 is different from FIG. 29 in that each component is not moved in one part (between Sh and Rg), and the others (between Sb to St except Sh and St to Ra except Rg) are slightly different. , Shifted left and right, divided into four stages, and rearranged as shown in FIG.

詳細すると、
「細S」Shと「細R」Rgの各間は、そのまま、
「細S」Sfと「細R」Reの各間は、「細S」Sfが、元の画像情報位置より左に、2mmずらして、置き、「細R」Reは、そのまま、
「細S」Sdと「細R」Rcの各間は、「細S」Sdが、元の画像情報位置より左に、4mmずらして、置き、「細R」Rcは、そのまま、
「細S」Sbと「細R」Raの各間は、「細S」Sbが、元の画像情報位置より左に、6mmずらして、置き、「細R」Raは、そのまま、
「細S」Spと「細R」Roの各間は、「細S」Spが、そのまま、「細R」Roは、元の画像情報位置より右に、2mmずらして、置き、
「細S」Srと「細R」Rqの各間は、「細S」Srが、そのまま、「細R」Rqは、元の画像情報位置より右に、4mmずらして、置き、
「細S」Stと「細R」Rsの各間は、「細S」Stが、そのまま、「細R」Rsは、元の画像情報位置より右に、6mmずらして、置き、
少しづつ均等に変化しながら異なる様に違えて、再配置されている。
In detail,
Between each of “Fine S” Sh and “Fine R” Rg,
Between each of “Fine S” Sf and “Fine R” Re, “Fine S” Sf is shifted by 2 mm to the left of the original image information position, and “Fine R” Re remains unchanged.
Between each of “Fine S” Sd and “Fine R” Rc, “Fine S” Sd is shifted by 4 mm to the left of the original image information position, and “Fine R” Rc remains as it is.
Between each of “Fine S” Sb and “Fine R” Ra, “Fine S” Sb is shifted 6 mm to the left of the original image information position, and “Fine R” Ra is left as it is.
Between each of “Fine S” Sp and “Fine R” Ro, “Fine S” Sp remains as it is, and “Fine R” Ro is shifted by 2 mm to the right of the original image information position,
Between each of “Fine S” Sr and “Fine R” Rq, “Fine S” Sr is left as it is, and “Fine R” Rq is shifted to the right by 4 mm from the original image information position.
Between each of “Fine S” St and “Fine R” Rs, “Fine S” St is left as it is, and “Fine R” Rs is shifted 6 mm to the right of the original image information position,
They are rearranged in different ways while changing little by little.

「細S」Shと「細R」Rgとの各間は、そのままの位置のため、図29のshと同様、図28も最大「空間深度画像情報」sshを得られるが、
「細S」Sbと「細R」Ra、「細S」Sdと「細R」Rc、「細S」Sfと「細R」Re、「細S」Spと「細R」Ro、「細S」Srと「細R」Rq、「細S」Stと「細R」Rsの各間は、横にそれぞれ少しづつ異なる様に違えた間を 挟んで置き、左右にずらしているため、図29の様な最大「空間深度画像情報」sb〜stは、形成できず、図28の未両形融合画像情報状態である、「細r」rgを除くra〜rsとなる。
Since the positions between “fine S” Sh and “fine R” Rg remain as they are, FIG. 28 can obtain the maximum “spatial depth image information” ssh as in FIG.
"Fine S" Sb and "Fine R" Ra, "Fine S" Sd and "Fine R" Rc, "Fine S" Sf and "Fine R" Re, "Fine S" Sp and "Fine R" Ro, "Fine Since each of “S” Sr and “Fine R” Rq, “Fine S” St and “Fine R” Rs is slightly different on the side, the difference between them is placed and shifted left and right. The maximum “spatial depth image information” sb to st like 29 cannot be formed, and is ra to rs excluding “thin r” rg which is the non-bimorphic fused image information state of FIG.

しかし、人の視中枢内には、前記、視中枢内に、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この機能の働きにより、『両形融合画像情報sshと「両形融合画像情報sshを除くssb〜sstによる左右両離輻輳融合画像情報ss」』が、形成されることになり、最大「空間深度画像情報」sshを背景として、その上空に同空間内の想定表示画面上にピラミッド型の1部が、窪んだ「空間深度画像情報」ssf,sspが、最初の輻輳融合行為で、飛び出して形成されることになる。 However, in the human visual center, it is considered that the “right and left parallax creation function for convergence that superimposes and fuses the moving gazing point image information to the definite fused image information” is present in the visual center. For this reason, by the function of this function, “bimodal fusion image information ssh and“ both left and right deconvergence fusion image information ss by ssb to sst excluding the bimodal fusion image information ssh ”” are formed. With the background of the spatial depth image information “ssh”, a part of the pyramid shape is depressed on the assumed display screen in the same space, and the “spatial depth image information” ssf and ssp jump out by the first convergence fusion action. Will be formed.

さらに、 前記と同時に、「空間深度画像情報」ssf,sspの上空には、同空間内の想定表示画面上にピラミッド型の1部が、窪んだ「空間深度画像情報」ssd,ssrが、連続した2番目の輻輳融合行為で、さらに飛び出して、形成されることになる。 Further, at the same time as above, in the sky above the “spatial depth image information” ssf and ssp, a part of the pyramid type is depressed on the assumed display screen in the same space, and the “spatial depth image information” ssd and ssr are continuous. In the second convergence fusion action, it will pop out and be formed.

さらに、 前々記と同時に、「空間深度画像情報」ssd,ssrの上空には、同空間内の想定表示画面上にピラミッド型の1部が、窪んだ「空間深度画像情報」ssb、sstが、連続した3番目の輻輳融合行為で、さらに飛び出して、形成されることになる。 Further, at the same time as the previous description, a part of the pyramid type is formed on the assumed display screen in the space above the “spatial depth image information” ssd, ssr, and the “spatial depth image information” ssb, sst is depressed. In the third continuous convergence and fusion action, it will jump out and be formed.

つまり、『両形融合画像情報sshと「両形融合画像情報sshを除くssb〜sstによる左右両離輻輳融合画像情報ss」』により、「空間深度画像情報」ss、および、ssb〜sstを形成することになる。 In other words, “spatial depth image information” ss and ssb to sst are formed by “bimorphic fusion image information ssh” and “left and right deconvergence fusion image information ss by ssb to sst excluding the bimodal fusion image information ssh”. Will do.

つまり、想定表示画面上に窪んでいる、大きなピラミッド型の頂上部ssh、から、手前上空へ、連続した3回の輻輳融合行為で、さらに、迫ってくる、6本の縦長の切れ目が均等に入って、その切れ目間が、離れているため、補間が必要なバラけたピラミッド型窪みssが、順に輻輳融合しながら、大きなピラミッド型の窪みssが、順に、4段階で迫りながら見えて来ることになる。   In other words, from the large pyramid-shaped top ssh, which is depressed on the assumed display screen, from the front to the front, three continuous convergence actions, and the six vertically long breaks that are approaching are evenly distributed. Since the gaps are separated, the large pyramid-shaped depression ss is visible in four steps, in order, while the discrete pyramid-shaped depressions ss that need to be interpolated converge in order. become.

前記「細S」、「細R」の7分割を、さらに、細分割してゆけば、さらに、緻密で、迫力ある『両形融合画像情報sshと「両形融合画像情報sshを除くssb〜sstによる左右両離輻輳融合画像情報ss」』が、得られ、林、霧、雨、ビル、および、渓谷両側壁・左右に迫る風景などの左右両端目前に迫ってくる微妙で、迫力ある動きも、緻密に再現できることになる。 If the seven subdivisions of “Fine S” and “Fine R” are further subdivided, the more detailed and powerful “bimodal fusion image information ssh and“ sbb excluding the bimodal fusion image information ssh˜ sst's left and right convergence convergence image information ss "" is obtained, and subtle and powerful movements approaching the right and left ends of the forest, fog, rain, buildings, and both sides of the valley and the landscape approaching the left and right Can be reproduced precisely.

前記「細S」、「細R」の7均等分割、もしくは、均等細分割の各均等比率を、徐々に増減した比率と置き換えれば、さらに、緻密で、迫力ある『両形融合画像情報と『両形融合画像情報sshと「両形融合画像情報sshを除くssb〜sstによる左右両離輻輳融合画像情報ss」』が、得られ、林、霧、雨、ビル、および、渓谷両側壁・左右に迫る風景などの左右両端目前に迫ってくる微妙で、迫力ある動きも、緻密により迫ってくるもの、もしくは、より逃退くものとして、再現できることになる。 If the equal ratios of the 7 subdivisions of “fine S” and “fine R” or the uniform subdivision are replaced with gradually increasing ratios, the more detailed and powerful “bimorphic fusion image information and“ Both-shaped fusion image information ssh and “both left-and-right convergence convergence image information ss by ssb to sst excluding both-shape fusion image information ssh” are obtained, and forests, fog, rain, buildings, and both side walls of the valley The subtle and powerful movements that approach the right and left ends of the landscape approaching the scene can be reproduced as something that approaches more precisely or that escapes more.

また、前記「細S」、「細R」の7分割を、少しづつ横に間を挟んで置き、4段階に分け、左右にずらし、図28のように再配置されていく過程で、この間を挟んで置く段階の増加度、および、左右のずれ度を、左右関連なく、もしくは、左右関連して、徐々に上げ、前記両離輻輳融合画像情報ss最大範囲まで、上げて行けば、さらに、上空に、伸びてくる 大きなピラミッド型の窪みが、見えることになる。 In addition, the seven divisions of “Fine S” and “Fine R” are gradually placed side by side, divided into four stages, shifted left and right, and rearranged as shown in FIG. If the degree of increase and the degree of left-right displacement are gradually increased without being related to the left or right, or left and right, and increased up to the maximum range of both deconvergence fusion image information ss, In the sky, you can see a large pyramid-shaped depression extending.

本特許明細書では、前記間を挟んで置く段階の増加を、2mmづつ増加する4段階伸張で、説明しているが、2.5mmづつ増加でも、可能である。 In this patent specification, the increase in the step of placing the gap is described as a four-step extension that increases by 2 mm, but an increase by 2.5 mm is also possible.

しかし、一概に、数値による範囲の限定は、できない。 However, in general, the range cannot be limited by numerical values.

何故ならば、観察視聴者の表示画像情報を見る位置と表示面までの距離・表示面の大きさ、分割数、および、使用輻輳融合角度などの各条件によって、各々該数値が、様々に異なってくると思われるからである。   This is because the numerical value varies depending on the viewing viewer's display image information viewing position and the distance to the display surface, the size of the display surface, the number of divisions, and the convergence convergence angle used. Because it seems to come.

また、これとは、逆に、前記、間を挟んで置く段階の増加度、および、左右のずれ度を、徐々に下げて行くと、図29と、同じ状態となり、さらに、「細S」、「細R」間の最大「空間深度画像情報」ssの最大値を、0値にすれば、平面画像情報の大きな四角錘に、戻ることになる。   On the other hand, when the increase in the step of placing the gap and the degree of left / right shift are gradually lowered, the state becomes the same as in FIG. If the maximum value of the maximum “spatial depth image information” ss between “fine R” is set to 0, it returns to a quadrangular pyramid with large planar image information.

次に、〔課題を解決するための手段〕8項に記載の『両組融合画像情報と「両組融合画像情報による左右両離輻輳融合画像情報」』を、図をもちいて、説明すると、
図31は、
公知技術の両組融合画像情報uによる、最大「空間突出度画像情報」uの生成過程を表している。
Next, [Means for Solving the Problems] “Both sets fusion image information and“ Both left and right convergence convergence image information by both sets fusion image information ”” described in item 8 will be described with reference to the drawings.
FIG.
This shows the generation process of the maximum “spatial protrusion image information” u based on both sets of fused image information u of known technology.

詳細すると、図31は、縦35mm横35mmの正方形四角錘 図29のXを 横方向に沿って縦長方向に5mm均等間隔で、切り分け7細分し、図31の「組形像系画像情報」T、Uの2つに分けている。 More specifically, FIG. 31 shows a square square pyramid having a length of 35 mm and a width of 35 mm. X in FIG. 29 is divided into seven subdivisions at equal intervals of 5 mm in the longitudinal direction along the horizontal direction. , U is divided into two.

以下、このT、Uを、「細T」、「細U」と各呼称する。 Hereinafter, T and U are referred to as “fine T” and “fine U”, respectively.

「細T」、「細U」は、7細分されているため、各々「細T」Ta〜Tsと「細U」Ub〜Utに、各分かれている。 Since “Fine T” and “Fine U” are subdivided into seven, each is divided into “Fine T” Ta to Ts and “Fine U” Ub to Ut.

「細T」、「細U」との融合からは、公知技術の両組融合画像情報uが起き、結果、最大「空間突出度画像情報」uが得られる。 From the fusion with “Fine T” and “Fine U”, both sets of fused image information u of the known technology occurs, and as a result, the maximum “Spatial protrusion degree image information” u is obtained.

当然「細T」Taと「細U」Ub、「細T」Tcと「細U」Ud、「細T」Teと「細U」Uf、「細T」Tgと「細U」Uh、「細T」Toと「細U」UP、「細T」Tqと「細U」Ur、「細T」Tsと「細U」Utの各間も、それぞれ最大「空間突出度画像情報」ub〜utが、得られている。  Naturally, “Fine T” Ta and “Fine U” Ub, “Fine T” Tc and “Fine U” Ud, “Fine T” Te and “Fine U” Uf, “Fine T” Tg and “Fine U” Uh, “ Between each of the “fine T” To and “fine U” UP, “fine T” Tq and “fine U” Ur, and “fine T” Ts and “fine U” Ut, the maximum “spatial protrusion degree image information” ub˜ ut is obtained.

この最大「空間突出度画像情報」u内の、ub〜utは、同一空間内に有るため、この空間内の想定表示面より飛び出した、6本の切れ目が均等に入っている縦横35mmの大きなピラミッドuが、見えることになる。   Since ub to ut in the maximum “spatial protrusion degree image information” u are in the same space, a large size of 35 mm in length and breadth that protrudes from the assumed display surface in this space and contains six cuts equally. The pyramid u will be visible.

この飛び出した大きなピラミッドは、最大融合範囲Zから、生み出されているため、これ以上の「空間突出度画像情報」uを、形成できない。   Since the protruding large pyramid is created from the maximum fusion range Z, no more “spatial protrusion image information” u can be formed.

図30は、図31の各構成要因を、1部(TaとUb間)は 動かさず、他は(Tc〜TsとUd〜Ut間)、少しづつ異なる様に違えて、左右に、ずらして、4段階に分け、図30のように、再配置されている。   30 does not move each component of FIG. 31 in part (between Ta and Ub), and the other (between Tc to Ts and Ud to Ut) is slightly different and shifted left and right. It is divided into four stages and rearranged as shown in FIG.

詳細すると、
「細T」Taと「細U」Ubの各間は、そのまま、
「細T」Tcと「細U」Udの各間は、「細T」Tcが、元の画像情報位置より右に、2mmずらして、置き、「細U」Udは、そのまま、
「細T」Teと「細U」Ufの各間は、「細T」Teが、元の画像情報位置より右に、4mmずらして、置き、「細U」Ufは、そのまま、
「細T」Tgと「細U」Uhの各間は、「細T」Tgが、元の画像情報位置より右に、6mmずらして、置き、「細U」Uhは、そのまま、
「細T」Toと「細U」Upの各間は、「細T」Toが、元の画像情報位置より右に、6mmずらして、置き、「細U」Upは、元の画像情報位置より右に、2mmずらして、置き、
「細T」Tqと「細U」Urの各間は、「細T」Tqが、元の画像情報位置より右に、6mmずらして、置き、「細U」Urは、元の画像情報位置より右に、4mmずらして、置き、
「細T」Tsと「細U」Utの各間は、「細T」Tsが、元の画像情報位置より右に6mmずらして、置き、「細U」Utは、元の画像情報位置より右に、6mmずらして、置き、少しづつ異なる様に違えて、再配置されている。
In detail,
Between each of “Fine T” Ta and “Fine U” Ub,
Between each of “Fine T” Tc and “Fine U” Ud, “Fine T” Tc is shifted 2 mm to the right of the original image information position, and “Fine U” Ud is left as it is.
Between each of “Fine T” Te and “Fine U” Uf, “Fine T” Te is shifted 4 mm to the right of the original image information position, and “Fine U” Uf is left as it is.
Between each of “Fine T” Tg and “Fine U” Uh, “Fine T” Tg is shifted 6 mm to the right of the original image information position, and “Fine U” Uh is left as it is.
Between each of “Fine T” To and “Fine U” Up, “Fine T” To is placed 6 mm to the right of the original image information position, and “Fine U” Up is the original image information position. Place it 2mm to the right,
Between each of “Fine T” Tq and “Fine U” Ur, “Fine T” Tq is shifted 6 mm to the right of the original image information position, and “Fine U” Ur is placed at the original image information position. Place it 4mm to the right,
Between each of “Fine T” Ts and “Fine U” Ut, “Fine T” Ts is shifted 6 mm to the right of the original image information position, and “Fine U” Ut is more than the original image information position. To the right, it is shifted by 6 mm, and it is rearranged in a slightly different way.

「細T」Taと「細U」Ubの各間は、そのままの位置のため、また、「細T」Tsと「細U」Utの各間は、結果的に、図31の「細T」Tsと「細U」Ut間と同対応の位置になるため、図31のubとutと同様、図30も最大「空間突出度画像情報」uubとuutを得られるが、
「細T」Tcと「細U」Ud、「細T」Teと「細U」Uf、「細T」Tgと「細U」Uh、「細T」Toと「細U」Up、「細T」Tqと「細U」Ur、の各間は、それぞれ横に間を挟んでずらして、置き、少しづつ異なる様に違えて、再配置されているため、図31の様な最大「空間突出度画像情報」ud〜urは、形成できず、図30の未両形融合画像情報状態である、「細t」tc〜tqとなる。
Since the positions between the “thin T” Ta and the “thin U” Ub remain as they are, the space between the “thin T” Ts and the “thin U” Ut results in the “thin T” in FIG. Since “Ts” and “fine U” Ut are in the same corresponding position, as in ub and ut in FIG. 31, FIG. 30 can obtain the maximum “spatial protrusion degree image information” ub and ut,
"Fine T" Tc and "Fine U" Ud, "Fine T" Te and "Fine U" Uf, "Fine T" Tg and "Fine U" Uh, "Fine T" To and "Fine U" Up, "Fine Since each of “T” Tq and “Fine U” Ur is laterally shifted and placed in a different manner, it is slightly rearranged and rearranged. Therefore, the maximum “space” as shown in FIG. The protrusion degree image information “ud to ur” cannot be formed, and becomes “thin t” tc to tq, which is the unshaped merged image information state of FIG.

しかし、人の視中枢内には、前記、視中枢内に、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この機能の働きにより、『両組融合画像情報uub・uutと「両組融合画像情報uud〜uurによる左右両離輻輳融合画像情報uu」』が、形成されることになり、最大「空間突出度画像情報」uub・uutをピラミッドの底辺部の背景として、その上空に同空間内の想定表示画面上に、飛び出した大きいピラミッドの1部「空間突出度画像情報」uud,uurが、最初の輻輳融合行為で、飛び出して形成されることになる。 However, in the human visual center, it is considered that the “right and left parallax creation function for convergence that superimposes and fuses the moving gazing point image information to the definite fused image information” is present in the visual center. Therefore, by the function of this function, “both sets of fusion image information uub · ut and“ both sets of fusion image information uud to uur left and right deconvergence fusion image information uu ”” are formed. Projection degree image information “ub · uut” is used as the background of the bottom of the pyramid, and on the assumed display screen in the same space, a part of the large pyramid that protrudes “space projection degree image information” uud, ur It is formed by popping out with the convergence fusion action.

さらに、 前記と同時に、「空間突出度画像情報」uud,uurの上空には、同空間内の想定表示画面上に大きいピラミッドの1部が、連続した2番目の輻輳融合行為で、さらに飛び出している「空間突出度画像情報」uuf,uupが、形成されることになる。 Furthermore, at the same time, a part of the large pyramid is further popped out in the second continuous convergence action on the assumed display screen in the space above the “space projection image information” ud, ur. "Spatial protrusion degree image information" uuf, uup are formed.

さらに、 前々記と同時に、「空間突出度画像情報」uuf,uupの上空には、同空間内の想定表示画面上に大きいピラミッドの頂点部が、連続した3番目の輻輳融合行為で、さらに、飛び出している「空間突出度画像情報」uuhが、形成されることになる。 Furthermore, at the same time as the above, in the sky above the “space protrusion degree image information” uuf, uup, the apex portion of the large pyramid on the assumed display screen in the same space is the third continuous convergence action. The protruding “spatial protrusion degree image information” uuh is formed.

つまり、『両組融合画像情報uub・uutと「両組融合画像情報uud〜uurによる左右両離輻輳融合画像情報uu」』により、「空間突出度画像情報」uu、および、uub〜uutを形成することになる。 In other words, “spatial protrusion image information” uu and uub to uut are formed by “both sets of fused image information uub · ut and“ both sets of fused image information uud to uur left and right convergence convergence image information uu ””. Will do.

つまり、想定表示画面上に、連続した3回の輻輳融合行為で、大きく飛び出して来る、6本の切れ目が均等に入って、その切れ目間が、離れているため、補間が必要なバラけたピラミッドuuが、順に輻輳融合しながら、大きなピラミッド型が、順に、4段階で迫りながら見えて来ることになる。   In other words, on the assumed display screen, the three pyramids that jump out greatly by three consecutive convergence and fusion acts, and the six cuts are evenly entered, and the gaps are separated, so a loose pyramid that requires interpolation As uu converges in order, a large pyramid shape will appear in order in four stages.

前記「細T」「細U」の7分割を、さらに、細分割してゆけば、さらに、緻密で、迫力ある『両組融合画像情報uub・uutと「両組融合画像情報uud〜uurによる左右両離輻輳融合画像情報uu」』が、得られ、林、霧、雨、ビル、および、渓谷両側壁・左右に迫る風景などの左右両端目前に迫ってくる微妙で、迫力ある動きも、緻密に再現できることになる。 If the "fine T" and "fine U" are further subdivided into 7 subdivisions, the more detailed and powerful "both sets of fusion image information uub uut and" both sets of fusion image information uud to ur. The left and right convergence convergence image information uu ”is obtained, and the subtle and powerful movements that approach the right and left ends of the forest, fog, rain, buildings, and both sides of the valley and the landscape approaching the left and right, It can be reproduced precisely.

前記「細T」「細U」の7均等分割、もしくは、均等細分割の各均等比率を、徐々に増減した比率と置き換えれば、さらに、緻密で、迫力ある『両組融合画像情報uub・uutと「両組融合画像情報uud〜uurによる左右両離輻輳融合画像情報uu」』が、得られ、林、霧、雨、ビル、および、渓谷両側壁・左右に迫る風景などの左右両端目前に迫ってくる微妙で、迫力ある動きも、緻密により迫ってくるもの、もしくは、より逃退くものとして、再現できることになる。 If each of the “even T” and “even U” subdivision ratios of the “fine T” and “fine U” is replaced with a gradually increasing / decreasing ratio, a more precise and powerful “Both-set fusion image information uub / out And "Both left and right convergence convergence image information uu by both sets fusion image information ud to ur" "is obtained, in front of the left and right ends of the forest, fog, rain, building, and both sides of the valley and the landscape approaching the left and right Subtle and powerful movements that are approaching can be reproduced as things that are approaching more closely or as more escapes.

また、前記「細T」「細U」の7分割を、少しづつ横に間を挟んで置き、4段階に分け、左右にずらし、図30のように再配置されていく過程で、この間を挟んで置く段階の増加度、および、左右のずれ度を、左右関連なく、もしくは、左右関連して、徐々に上げ、前記両離輻輳融合画像情報uu最大範囲まで、上げて行けば、さらに、上空に、伸びてくる 大きなピラミッドが、見えることになる。 In addition, the seven divisions of “Fine T” and “Fine U” are gradually placed side by side, divided into four stages, shifted left and right, and rearranged as shown in FIG. If the degree of increase in the sandwiching stage and the degree of left / right shift are gradually increased without being related to left / right or left / right related, and increased to the maximum range of both deconvergence fusion image information uu, You can see a large pyramid that stretches in the sky.

本特許明細書では、前記 間を挟んで置く段階の増加を、2mmづつ増加する4段階伸張で、説明しているが、2.5mmづつ増加でも、可能である。 In this patent specification, the increase in the step of placing the gap is described as a four-step extension that increases by 2 mm, but an increase by 2.5 mm is also possible.

しかし、一概に、数値による範囲の限定は、できない。 However, in general, the range cannot be limited by numerical values.

何故ならば、観察視聴者の表示画像情報を見る位置と表示面までの距離・表示面の大きさ、分割数、および、使用輻輳融合角度などの各条件によって、各々該数値が、様々に異なってくると思われるからである。 This is because the numerical value varies depending on the viewing viewer's display image information viewing position and the distance to the display surface, the size of the display surface, the number of divisions, and the convergence convergence angle used. Because it seems to come.

また、これとは、逆に、前記 間を挟んで置く段階の増加度、および、左右のずれ度を、徐々に下げて行くと、図31と、同じ状態となり、さらに、「細T」「細U」間の最大「空間突出度画像情報」uuの最大値を、0値にすれば、平面画像情報の大きな四角錘に、戻ることになる。 On the other hand, if the increase degree and the right / left deviation degree at the stage between which the gap is placed are gradually lowered, the state becomes the same as in FIG. If the maximum value of the maximum “spatial protrusion degree image information” uu between “thin U” is set to 0 value, it returns to a square pyramid with large plane image information.

次に、〔課題を解決するための手段〕9項に記載の『両形組融合画像情報と「両形組融合画像情報による左右両離輻輳融合画像情報」』を、図をもちいて、説明すると、
図33は、
公知技術の両形組融合画像情報wによる、最大「空間歪性度画像情報」wの生成過程を表している。
[Means for Solving the Problems] Next, “Dual-form set fusion image information and“ Right-and-left deconvergence fusion image information based on both-form set fusion image information ”” described in Item 9 will be described with reference to the drawings. Then
FIG.
This shows the generation process of the maximum “spatial distortion image information” w based on the well-known bimodal combination image information w.

詳細すると、図33は、図29で使用した「細R」、「細S」と、図31で使用した「細T」、「細U」と同じものを、使用している。 Specifically, FIG. 33 uses the same “Fine R” and “Fine S” used in FIG. 29 and the same “Fine T” and “Fine U” used in FIG.

「細R」、「細S」は、7細分されているため、各々「細R」Ra〜Rsと「細S」Sb〜Stに、各分かれている。 Since “Fine R” and “Fine S” are subdivided into seven, they are divided into “Fine R” Ra to Rs and “Fine S” Sb to St, respectively.

「細T」、「細U」も、7細分されているため、各々「細T」Ta〜Tsと「細U」Ub〜Utに、各分かれている。 “Fine T” and “Fine U” are also subdivided into seven, and are divided into “Fine T” Ta to Ts and “Fine U” Ub to Ut, respectively.

V、Wは、前記図29、31の各組み合わせを除く「細R」、「細S」、「細T」、「細U」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体V、Wである。 V and W are at least one of various combinations between “fine R”, “fine S”, “fine T”, and “fine U” excluding the combinations shown in FIGS. The hybrids V and W divided into two.

以下、V、Wを「混V」、「混W」と呼称する。 Hereinafter, V and W are referred to as “mixed V” and “mixed W”.

「混V」、「混W」との融合からは、公知技術の両形組融合画像情報wが起き、結果、図33の最大「空間歪性度画像情報」wが得られる。 From the fusion with “mixed V” and “mixed W”, a well-known bimodal combination image information w occurs, and as a result, the maximum “spatial distortion degree image information” w of FIG. 33 is obtained.

当然、前記図29、31の各組み合わせを除く各々「混V」Va〜Vs、「混W」Wb〜Wtの各間も、それぞれ最大「空間歪性度画像情報」wb〜wtが、得られている。  Naturally, the maximum “spatial distortion image information” wb to wt is obtained between the “mixed V” Va to Vs and the “mixed W” Wb to Wt except for the combinations of FIGS. ing.

この最大「空間歪性度画像情報」w内の、wb〜wtは、同一空間内に有るため、この空間内の想定表示画面上に、歪んだ、6本の切れ目が均等に入っている縦横35mmの大きなピラミッドwが、見えることになる。    Since wb to wt in the maximum “spatial distortion image information” w are in the same space, the horizontal and vertical directions in which six distorted cuts are evenly included on the assumed display screen in this space. A large pyramid w of 35 mm will be visible.

この飛び出した大きなピラミッドは、最大融合範囲Zから、生み出されているため、これ以上の「空間歪性度画像情報」wを、形成できない。 Since this large pyramid that has popped out is created from the maximum fusion range Z, no more “spatial distortion image information” w can be formed.

図32は、図33「混V」、「混W」の各構成要因を、1部(VaとWb間)は 動かさず、他は(Vc〜VsとWd〜Wt間)、少しづつ異なる様に違えて、左右に、ずらして、4段階に分け、図32のように、再配置されている。 FIG. 32 shows that each component of “Mixed V” and “Mixed W” in FIG. 33 does not move in one part (between Va and Wb), and others (between Vc to Vs and Wd to Wt) are slightly different. In FIG. 32, they are rearranged as shown in FIG. 32.

詳細すると、
「混V」Vaと「混W」Wbの各間は、そのまま、
「混V」Vcと「混W」Wdの各間は、「混V」Vcが、元の画像情報位置より右に2mmずらして、置き、「混W」Wdは、そのまま、
「混V」Veと「混W」Wfの各間は、「混V」Veが、元の画像情報位置より右に4mmずらして、置き、「混W」Wfは、そのまま、
「混V」Vgと「混W」Whの各間は、「混V」Vgが、元の画像情報位置より右に6mmずらして、置き、「混W」Whは、そのまま、
「混V」Voと「混W」Wpの各間は、「混V」Voが、元の画像情報位置より右に6mmずらして、置き、「混W」Wpは、元の画像情報位置より右に2mmずらして、置き、
「混V」Vqと「混W」Wrの各間は、「混V」Vqが、元の画像情報位置より右に6mmずらして、置き、「混W」Wrは、元の画像情報位置より右に4mmずらして、置き、
「混V」Vsと「混W」Wtの各間は、「混V」Vsが、元の画像情報位置より右に6mmずらして、置き、「混W」Wtは、元の画像情報位置より右に6mmずらして、置き、少しづつ均等に異なる様に違えて、再配置されている。
In detail,
Between each of “Mixed V” Va and “Mixed W” Wb,
Between each of “Mixed V” Vc and “Mixed W” Wd, “Mixed V” Vc is shifted to the right by 2 mm from the original image information position, and “Mixed W” Wd is left as it is.
Between each of “Mixed V” Ve and “Mixed W” Wf, “Mixed V” Ve is shifted by 4 mm to the right of the original image information position, and “Mixed W” Wf is left as it is.
Between each of “Mixed V” Vg and “Mixed W” Wh, “Mixed V” Vg is shifted 6 mm to the right from the original image information position, and “Mixed W” Wh is left as it is.
Between each of “Mixed V” Vo and “Mixed W” Wp, “Mixed V” Vo is shifted by 6 mm to the right of the original image information position, and “Mixed W” Wp is arranged from the original image information position. Shift 2mm to the right,
Between each of “Mixed V” Vq and “Mixed W” Wr, “Mixed V” Vq is shifted 6 mm to the right of the original image information position, and “Mixed W” Wr is more than the original image information position. Shift 4mm to the right,
Between each of “Mixed V” Vs and “Mixed W” Wt, “Mixed V” Vs is shifted to the right by 6 mm from the original image information position, and “Mixed W” Wt is arranged from the original image information position. It is shifted 6mm to the right, placed, and rearranged in a different way so that it is slightly different.

「混V」Vaと「混W」Wbの各間は、そのままの位置のため、また、「混V」Vsと「混W」Wtの各間は、結果的に、図33のVsとWt間と同対応の位置になるため、図33のwbとwtと同様、図32も最大「空間歪性度画像情報」wwbとwwtを得られるが、
「混V」Vcと「混W」Wd、「混V」Veと「混W」Wf、「混V」Vgと「混W」Wh、「混V」Voと「混W」Wp、「混V」Vqと「混W」Wr、の各間は、それぞれ横に間を挟んで置き、左右にずらしているため、図33の様な最大「空間歪性度画像情報」wd〜wrは、形成できず、図32の未両形融合画像情報状態である、「混VW」vのvc〜vqとなる。
Since each position between “Mixed V” Va and “Mixed W” Wb remains as it is, and between each of “Mixed V” Vs and “Mixed W” Wt, as a result, Vs and Wt in FIG. Since wb and wt in FIG. 33, the maximum “spatial distortion image information” wwb and wwt can be obtained.
“Mixed V” Vc and “Mixed W” Wd, “Mixed V” Ve and “Mixed W” Wf, “Mixed V” Vg and “Mixed W” Wh, “Mixed V” Vo and “Mixed W” Wp, “Mixed” Since each of “V” Vq and “Mixed W” Wr is horizontally placed and shifted to the left and right, the maximum “spatial distortion image information” wd to wr as shown in FIG. It cannot be formed, and it is vc to vq of “Mixed VW” v, which is the unshaped fusion image information state of FIG.

しかし、人の視中枢内には、前記、視中枢内に、「確定融合画像情報に、移動注視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」が、存在すると思われるため、この機能の働きにより、『両形組融合画像情報wwb・wwtと「両形組融合画像情報wwd〜wwrによる左右両離輻輳融合画像情報ww」』が、形成されることになり、最大「空間突出度画像情報」wwb・wwtをピラミッドの底辺部の背景として、その上空に同空間内の想定表示画面上に、歪んだ大きいピラミッドの1部「空間歪性度画像情報」wwd,wwrが、最初の輻輳融合行為で、飛び出して形成されることになる。 However, in the human visual center, it is considered that the “right and left parallax creation function for convergence that superimposes and fuses the moving gazing point image information to the definite fused image information” is present in the visual center. Therefore, by the function of this function, “both-shaped set fusion image information wwb · wwt and“ both-sided set fusion image information wwd to wwr by both-sided set fusion image information ww ”” are formed, “Spatial protrusion degree image information” wwb · wwt is used as the background of the bottom of the pyramid, and a part of the large distorted pyramid “spatial distortion degree image information” wwd, wwr is displayed above the assumed display screen in the same space. However, it will be formed in the first convergence fusion action.

さらに、 前記と同時に、「空間歪性度画像情報」wwd,wwrの上空には、同空間内の想定表示画面上に大きいピラミッドの1部が、同様に歪んでいる「空間歪性度画像情報」wwf,wwpが、連続した2番目の輻輳融合行為で、さらに飛び出して形成されることになる。  Further, at the same time as above, “spatial distortion image information” in which a part of a large pyramid is similarly distorted on the assumed display screen in the same space above “spatial distortion image information” wwd and wwr. “Wwf and wwp are formed by popping out in the second continuous convergence operation.

さらに、 前々記と同時に、「空間歪性度画像情報」wwf,wwpの上空には、同空間内の想定表示画面上に大きいピラミッドの頂点部が、同様に、歪んでいる「空間歪性度画像情報」wwhが、連続した3番目の輻輳融合行為で、さらに、飛び出して形成されることになる。  Further, at the same time as the previous description, in the sky above the “spatial distortion degree image information” wwf and wwp, the apex portion of the large pyramid is similarly distorted on the assumed display screen in the same space. The degree image information “whh” is formed by popping out in the third continuous convergence action.

つまり、『両形組融合画像情報wwb・wwtと「両形組融合画像情報wwd〜wwrによる左右両離輻輳融合画像情報ww」』により、「空間歪性度画像情報」ww、および、wwb〜wwtを形成することになる。 That is, “spatial distortion degree image information” ww, and “wwb˜” based on “bimorphic set fusion image information wwb · wwt” and “both left and right defocused fusion image information ww” wwt will be formed.

つまり、想定表示画面上に、連続した3回の輻輳融合行為で、大きく飛び出して来る、6本の切れ目が均等に入って、それぞれ離れているため、補間が必要なバラけたピラミッドwwが、順に輻輳融合しながら、大きなピラミッド型wwが、順に、4段階で迫りながら見えて来ることになる。   In other words, on the assumed display screen, the three pyramids ww that jump out greatly by three consecutive congestion fusion actions are evenly inserted and separated from each other. While converging, a large pyramid-shaped ww will appear in order in four stages.

前記「混V」「混W」の7分割を、さらに、細分割してゆけば、さらに、緻密で、迫力ある『両形組融合画像情報wwb・wwtと「両形組融合画像情報wwd〜wwrによる左右両離輻輳融合画像情報ww」』が、得られ、林、霧、雨、ビル、および、渓谷両側壁・左右に迫る風景などの左右両端目前に迫ってくる微妙で、迫力ある動きも、緻密に再現できることになる。 If the 7 divisions of the “mixed V” and “mixed W” are further subdivided, the more detailed and powerful “bimorphic set fusion image information wwwb · wwt and“ bimorphic set fusion image information wwd˜ Wwr's left and right convergence convergence image information "ww" "is obtained, and subtle and powerful movements approaching the right and left sides of the forest, fog, rain, buildings, and both sides of the valley and the landscape approaching the left and right Can be reproduced precisely.

前記「混V」「混W」の7均等分割、もしくは、均等細分割の各均等比率を、徐々に増減した比率と置き換えれば、さらに、緻密で、迫力ある『両形組融合画像情報wwb・wwtと「両形組融合画像情報wwd〜wwrによる左右両離輻輳融合画像情報ww」』が、得られ、林、霧、雨、ビル、および、渓谷両側壁・左右に迫る風景などの左右両端目前に迫ってくる微妙で、迫力ある動きも、緻密により迫ってくるもの、もしくは、より逃退くものとして、再現できることになる。 If the equal ratios of the 7 equal divisions or the equal subdivisions of the “mixed V” and “mixed W” are replaced with gradually increasing / decreasing ratios, the more detailed and powerful “both-form combination image information wwww. wwt and "both left and right convergence convergence image information ww by both-type fusion image information wwd-wwr" is obtained, left and right ends of forest, fog, rain, building, and both sides of the valley, landscape approaching left and right The subtle and powerful movements that are approaching in the near future can be reproduced as those that are approaching more precisely or that escape more.

また、前記「混V」「混W」の7分割を、少しづつ横に伸張して、4段階に分け、左右にずらし、図32のように再配置されていく過程で、この間を挟んで置く段階の増加度、および、左右のずれ度を、左右関連なく、もしくは、左右関連して、徐々に上げ、前記両離輻輳融合画像情報ww最大範囲まで、上げて行けば、さらに、上空に、伸びてくる 歪んだ大きなピラミッドが、見えることになる。 In addition, the seven divisions of the “mixed V” and “mixed W” are gradually expanded horizontally, divided into four stages, shifted left and right, and rearranged as shown in FIG. If the degree of increase and the degree of deviation between the left and right sides are gradually increased without being related to left and right, or left and right, and increased up to the maximum range of both deconvergence fusion image information ww, the sky further rises. A large and distorted pyramid will be visible.

本特許明細書では、前記 間を挟んで置く段階の増加を、2mmづつ増加する4段階伸張で、説明しているが、2.5mmづつ増加でも、可能である。 In this patent specification, the increase in the step of placing the gap is described as a four-step extension that increases by 2 mm, but an increase by 2.5 mm is also possible.

しかし、一概に、数値による範囲の限定は、できない。 However, in general, the range cannot be limited by numerical values.

何故ならば、観察視聴者の表示画像情報を見る位置と表示面までの距離・表示面の大きさ、分割数、および、使用輻輳融合角度などの各条件によって、各々該数値が、様々に異なってくると思われるからである。 This is because the numerical value varies depending on the viewing viewer's display image information viewing position and the distance to the display surface, the size of the display surface, the number of divisions, and the convergence convergence angle used. Because it seems to come.

また、これとは、逆に、前記 間を挟んで置く段階の増加度、および、左右のずれ度を、徐々に下げて行くと、図33と、同じ状態となり、さらに、「混V」「混W」間の最大「空間歪性度画像情報」wwの最大値を、0値にすれば、平面画像情報の大きな四角錘に、戻ることになる。 On the other hand, when the increase degree and the right / left deviation degree at the stage where the gap is placed are gradually lowered, the state becomes the same as that in FIG. If the maximum value of the maximum “spatial distortion degree image information” ww between “mixed W” is set to 0, it returns to a square pyramid with large planar image information.

次に、〔課題を解決するための手段〕10項に記載の
両形融合画像情報(図2のb)、
両組融合画像情報(図4のf)、
両形組融合画像情報(図6のh)、
「両形融合画像情報bbによる両離輻輳融合画像情報bb」(図1のbb)、
「両組融合画像情報ffによる両離輻輳融合画像情報ff」(図3のff)、
「両形組融合画像情報hhによる両離輻輳融合画像情報hh」、(図5のhh)、
『両形融合画像情報jjhと「両形融合画像情報jjhを除くjjb〜jjtによる上下両離輻輳融合画像情報jj」』(図7のjj)、
『両組融合画像情報llb・lltと「両組融合画像情報lld〜llrによる上下両離輻輳融合画像情報ll」』(図9のll)、
『両形組融合画像情報nnb・nntと「両形組融合画像情報nnd〜nnrによる上下両離輻輳融合画像情報nn」』、(図11のnn)、
『両形融合画像情報sshと「両形融合画像情報sshを除くssb〜sstによる左右両離輻輳融合画像情報ss」』(図28のss)、
『両組融合画像情報uubと「両組融合画像情報uud〜uutによる左右両離輻輳融合画像情報uu」』(図30のuu)、
および、
『両形組融合画像情報wwbと「両形組融合画像情報wwd〜wwtによる左右両離輻輳融合画像情報ww」』(図32ww)、
の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ、同、様々な重ね合わせで、構成されている
両離輻輳融合画像情報を、図をもちいて、その極めて簡単な例を、説明する。
Next, [Means for Solving the Problems] Double-shaped fusion image information (b in FIG. 2) according to item 10,
Both sets of fused image information (f in FIG. 4),
Bimorphic fusion image information (h in FIG. 6),
“Both deconvergence fusion image information bb based on both-shape fusion image information bb” (bb in FIG. 1),
“Both deconvergence fusion image information ff by both sets fusion image information ff” (ff in FIG. 3),
“Both deconvergence fusion image information hh based on both forms fusion image information hh” (hh in FIG. 5),
“Both-shape fusion image information jjh and“ upper and lower convergence convergence image information jj by jjb to jjt excluding both-shape fusion image information jjh ”” (jj in FIG. 7),
“Both-set fusion image information llb / llt and“ both-set fusion image information lld to llr, both upper and lower convergence convergence image information ll ”” (ll in FIG. 9),
“Both-shaped set fusion image information nnb · nnt and“ both-form set fusion image information nnd to nnnr, both upper and lower convergence convergence image information nn ”” (nn in FIG. 11),
“Dual form fusion image information ssh and“ Both left and right convergence convergence image information ss by ssb to sst excluding both form fusion image information ssh ”” (ss in FIG. 28),
“Both sets of fused image information ub and“ both sets of fused image information uud to uut left and right deconvergence fused image information uu ”” (uu in FIG. 30),
and,
“Both-form set fusion image information wwb and“ Right-and-left deconvergence fusion image information ww by both-form set fusion image information wwd to wwt ”” (FIG. 32 ww),
1 and 1 and various combinations of 1 and 1 A very simple example will be described.

『両組融合画像情報llb・lltと「両組融合画像情報lld〜llrによる上下両離輻輳融合画像情報ll」』(図9のll)と『両組融合画像情報uubと「両組融合画像情報uud〜uutによる左右両離輻輳融合画像情報uu」』(図30のuu)の混合融合図形の例として、図34、35、36、および、37が、その極めて簡単な例として、挙げられる。 “Both-set fusion image information llb / llt” and “Both-set fusion image information lld to llr upper / lower convergence convergence image information ll” (ll in FIG. 9) and “Both-set fusion image information uub and“ Both-set fusion image ” 34, 35, 36, and 37 are given as very simple examples of the mixed fusion figure of the left and right mixed convergence image information uu "(u in FIG. 30) by information ud to uut”. .

図34、36とも、補間無しで、完全輻輳融合画像情報で、構成される立体画像情報が、得られる現象が、可能となることを 示した、本発明の最も重要な特徴の1つを、表現している極めて簡単な例図で ある。   34 and 36, one of the most important features of the present invention, which shows that a phenomenon can be obtained in which stereoscopic image information composed of complete convergence fusion image information without interpolation is possible, It is a very simple example diagram.

図35は、
図9の左右2つの山型図形(図9のK、L)を 図13の52 の左右2つの谷型図形で実現した『両組融合画像情報と上下「両組融合画像情報による両離輻輳融合画像情報」』に、
『両組融合画像情報uubと「両組融合画像情報uud〜uutによる左右両離輻輳融合画像情報uu」』である
図30のT、Uの両離輻輳融合画像情報uuを そのまま重ね融合させた複合図形である図35のY3、Y4である。
図35のY3、Y4間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図35のy3)ことにより図35の402 などの補間部分が、必要な図35のY3、Y4間の両離輻輳融合画像情報(図35のy4)を表している。
FIG.
The two left and right mountain-shaped figures (K and L in FIG. 9) are realized by the two left and right valley-shaped figures in FIG. Fusion image information ””
“Two sets of fusion image information ub” and “Two and two pieces of deconvergence fusion image information uu by“ both sets of fusion image information uud to uut ”” in FIG. It is Y3 and Y4 of FIG. 35 which are composite figures.
FIG. 35 shows an interpolation portion such as 402 shown in FIG. 35 that has a difference in the image information comparison between the “similar / different image information” between Y3 and Y4 in FIG. 35 and fuses the image information (y3 in FIG. 35). The deconvergence fusion image information between Y3 and Y4 (y4 in FIG. 35).

図34は、
そのまま重ね融合させた前記図35のY3、Y4に、図35の402、などの補間部分が、発生し無い様に、隙間を無くす様に、各々左右に詰めた工夫をして、重ね融合させた複合図形である図34のY1、Y2である。
図34のY1、Y2間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図34のy1)ことにより図35の402、などの補間部分を、必要としない図34のY1、Y2間の両離輻輳融合画像情報(図34のyy2)を 表している。
図34のY1、Y2から生み出されるyy2は、
目前領域における上下左右全体「空間深度画像情報」の立体画像情報yy2として得られ、
なお且つ、図35のy4の様な補間(図35の400)を必要としない目前領域における上下左右全体「空間深度画像情報」の立体画像情報yy2も得ることができる為、平面画像情報の立体化加工技術が、極めて、簡単で、原平面画像情報が、持つ質的画像情報価値を損なうことのなく忠実に、目前領域における立体画像情報とする事が、可能となる。
FIG.
35. In Y3 and Y4 in FIG. 35, the interpolated portions such as 402 in FIG. 35 do not occur and the gaps are eliminated so that the gaps are eliminated. 34 are Y1 and Y2 in FIG.
Interpolation such as 402 in FIG. 35 is not required by having a difference in image information comparison between “similar / different image information” between Y1 and Y2 in FIG. 34 and fusing the image information (y1 in FIG. 34). 34 shows both deconvergence fusion image information (yy2 in FIG. 34) between Y1 and Y2 in FIG.
Yy2 generated from Y1 and Y2 in FIG.
Obtained as stereoscopic image information yy2 of the entire "space depth image information" in the top, bottom, left, and right in the immediate area,
In addition, since the stereoscopic image information yy2 of the entire “spatial depth image information” in the top, bottom, left, and right in the current area that does not require interpolation (400 in FIG. 35) as in y4 in FIG. 35 can be obtained. The processing technology is extremely simple, and the original plane image information can be faithfully converted into stereoscopic image information in the immediate area without losing the qualitative image information value.

図37は、
図9の左右2つの山型図形(図9のK、L)である
『両組融合画像情報llb・lltと「両組融合画像情報lld〜llrによる上下両離輻輳融合画像情報ll」』に、
『両組融合画像情報uubと「両組融合画像情報uud〜uutによる左右両離輻輳融合画像情報uu」』である
図30のT、Uの両離輻輳融合画像情報を そのまま重ね融合させることにより、隠れる部分を持った複合図形である図37のY7、Y8である。
図37のY7、Y8間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図37のy7)ことにより隠れた部分を持つ図37の重層部分が、発生する図37のY7、Y8間の両離輻輳融合画像情報(図37のy8)を 表している。
FIG.
In the two left and right chevron figures in FIG. 9 (K and L in FIG. 9), “both sets of fusion image information llb / llt and“ both sets of fusion image information lld to llr ”. ,
By superimposing and fusing both defocused fused image information of T and U in FIG. 30, which is “both pairs fused image information ub and“ left and right defocused fused image information uu by both sets fused image information ud to uut ””. 37 are Y7 and Y8 in FIG. 37 which are composite figures having hidden parts.
The overlapped portion of FIG. 37 having a hidden portion is generated by the image information comparison between the “homogeneous image information” between Y7 and Y8 of FIG. 37 shows both deconvergence fusion image information (y8 in FIG. 37) between Y7 and Y8 in FIG.

図36は、
前記図37のY7、Y8の様な、隠れる部分が、発生する重層部分が、発生し無い様に、重層部分を左右にずらす様に、工夫して、重ね融合させた複合図形である図36のY5、Y6である。
図36のY5、Y6間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合する(図36のy5)ことにより図37の隠れ部分を生み出す重層部分が、発生しない図36のY5、Y6間の両離輻輳融合画像情報(図36のyy6)を 表している。
図36のY5、Y6から生み出されるyy6は、
目前領域における上下左右全体「空間突出度画像情報」の立体画像情報yy6として得られ、
なお且つ、図37のy8に見られる隠れる部分が、発生し無い目前領域における上下左右全体「空間突出度画像情報」の立体画像情報yy6も得ることができる為、平面画像情報の立体化加工技術が、極めて、簡単で、原平面画像情報が、持つ質的画像情報価値を損なうことなく忠実に、目前領域における立体画像情報yy6とする事が、可能となる。
FIG.
FIG. 36 is a composite figure in which the hidden portions, such as Y7 and Y8 in FIG. 37, are superimposed and fused so that the overlapping portions are shifted left and right so that the generated overlapping portions do not occur. Y5 and Y6.
FIG. 36 is a diagram in which there is no multi-layered portion that generates a hidden portion in FIG. 37 by having a difference in image information comparison between “homogeneous image information” between Y5 and Y6 in FIG. 36 shows both deconvergence fusion image information (yy6 in FIG. 36) between Y5 and Y6.
Yy6 generated from Y5 and Y6 in FIG.
It is obtained as stereoscopic image information yy6 of the entire “upper, lower, left and right“ spatial protrusion degree image information ”in the current area,
In addition, since the hidden portion seen in y8 in FIG. 37 can also obtain the three-dimensional image information yy6 of the entire “space projection degree image information” in the upper, lower, left, and right areas in the current region, the three-dimensional processing technology of the planar image information However, it is extremely simple, and the original plane image information can be faithfully converted into the stereoscopic image information yy6 in the immediate area without losing the qualitative image information value.

また、両形組融合画像情報で構成される輻輳融合画像情報である目前領域における上下左右全体「空間歪性度画像情報」の立体画像情報取得でも、同様の効果を生み出すことは、以上述べた事の応用で、可能である。   In addition, as described above, it is possible to obtain the same effect by acquiring stereoscopic image information of the entire “spatial distortion image information” in the upper, lower, left, and right directions in the current area, which is the convergence fused image information composed of the bimorphic fused image information. It is possible by application of things.

次に、〔課題を解決するための手段〕11項と13項に記載の事項は、繋がった同一の事象を、場面確定と、確定後の処理の2つに分けているため、併せて、その極めて簡単な最良の形態例で、説明する。 Next, [Means for Solving the Problems] The items described in items 11 and 13 divide the same connected event into two processes: scene determination and post-confirmation processing. This will be described with its very simple best mode.

「映像情報内容(図25の182)から判断できる空間情報提示」(図40の182)の表現方法において、特開2004−91304手続補正書〔発明を実施するための最良の形態〕段落〔0137〕〜〔0146〕記載事項に、本輻輳融合技術を加えることにより、両眼視差画像情報には、可能な、目前にまで迫るレベル領域での、平面画像情報による 立体画像情報処理表現ができることになる。 In the expression method of “Presentation of spatial information that can be determined from the contents of video information (182 in FIG. 25)” (182 in FIG. 40), Japanese Patent Application Laid-Open No. 2004-91304 Procedure Amendment [Best Mode for Carrying Out the Invention] Paragraph [0137] ] To [0146] By adding this convergence fusion technique to the described items, binocular parallax image information can be represented as a three-dimensional image information processing by plane image information in a level area that is close to the present. Become.

特開2004−91304手続補正書〔発明を実施するための最良の形態〕段落〔0137〕〜〔0146〕には、次のように記載されている。
「〔0137〕
さらに、「映像情報内容から判断できる空間情報提示」が、前方→後方を示している時とは、「比較すべき画像情報」と「直前の画像情報」が画像情報中央部分に検出点を集中・四隅は分散させ画像情報比較で変化して行く動画情報の像形状情報が単位当りの時間軸で小さく縮小して行く場合である。
〔0138〕
この時の空間移動を、図1〜11を使用しパターン化すると、パターン前(1)18→16→14→4→12→22→24→10を使用し、単位時間当りの変化が大きい時はパターン前(2) 18→14→12→24→10を使用し、さらに、同変化が大きい時は、パターン前(3) 20→16→4→24→26→10があり、この時融合画像情報20と26は−Z>x、x>Z、−Z>y、Z<yの関係値から始めれば、(融合していない画像情報としての20・26)観察視聴者は、目前→前方→後方→見失う→最奥の空間移動を感じることになる。(横方向差異融合範囲は、約100:60[誤差±10])
〔0139〕
前記とは逆に「映像情報内容の空間情報提示」が、後方→前方を示している時は、「比較すべき画像情報」と「直前の画像情報」を画像情報中央部分に検出点を集中・四隅は分散させ画像情報比較で変化して行く動画情報の像形状情報が単位当りの時間軸で変化する動画像情報形状が大きく拡大して行く場合である。
〔0140〕
この時、図1〜11を使用すると、パターン後(4) 10→24→22→12→4→14→16→18を使用し、単位時間当りの変化が大きい時はパターン後(5) 10→24→12→14→18さらに、同変化が大きい時は、パターン後(6) 10→26→24→4→16→20があり、この時融合画像情報26・20は−Z>x、x>Z、−Z>y、Z<yの関係値で終われば、(融合していない画像情報としての26・20)観察視聴者は、最奥→見失う→後方→前方→目前の空間移動を感じることになる。
〔0141〕
また、「映像情報内容の空間情報提示」が、右→左を示している時は、観察視聴者は空間認識として移動方向遠方は空間がゆっくり・小さく・くっきり感じられ移動方向手前は空間が速く・大きく・ぼんやり感じる、映像情報手法から来る空間の歪み性を意識下で感じ(「空間歪性度」)移動しているという実感が湧くため、「比較すべき画像情報」と「直前の画像情報」を前記検出点画像情報比較で変化して行く動画情報の像形状情報が単位当りの時間軸で左にずれて行く場合である。(画面下から約1/3で移動する字幕は、検知しないようにする。)
〔0142〕
この時、図4・12〜15を使用すると、パターン右(7) 12→28→30→30→12を使用し、変化速度が大きい時はパターン右(8) 12→28→30さらに、大きい時は、パターン右(9) 12→28→28で最後の融合画像情報28は−Z>x、x>Z、−Z>y、Z<yの関係値で終われば、(融合していない画像情報としての28)観察視聴者は、右→左→画面外の空間移動を感じることになる。
〔0143〕
前記とは逆に、「映像情報内容の空間情報提示」が、左→右を示している時は、前記理由と前記検出点同時間単位情報比較から「比較すべき画像情報」と「直前の画像情報」は、単位時間当りの変化する動画像情報形状が右へずれて行く場合である。(字幕は、前記同様である。)
〔0144〕
この時、図4・12〜15では、パターン左(10) 12→27→29→29→12を使用し、単位当りの変化が大きい時はパターン左(11) 12→27→29さらに、同変化が大きい時は、パターン左(12) 12→27→27で最後の融合画像情報27は−Z>x、x>Z、−Z>y、Z<yの関係値で終われば、(融合していない画像情報としての27)観察視聴者は、左→右→画面外の空間移動を感じることになる。
〔0145〕
さらに、「映像情報内容の空間情報提示」が、左前→右後・左後→右前、右前→左後・右後→左前を示している時は、「比較すべき画像情報」と「直前の画像情報」を前記検出点同時間単位情報比較で変化する動画像情報形状が拡大・縮小・左右のずれでの組み合わせで前述のパターン前(1)パターン前(2) パターン前(3) パターン後(4) パターン後(5) パターン後(6) パターン右(7) パターン右(8) パターン右(9) パターン左(10) パターン左(11) パターン左(12) の様々な組み合わせで対応できる。
〔0146〕
「映像情報内容から判断できる空間情報提示」が上下↓↑のときでは、若干であるが、上下融合範囲縦方向差異約100:114[誤差±5]で両形組融合画像情報でき、上記パターンに組み合せることができる。」
と、記載されている。
JP-A-2004-91304 Procedure Amendment [Best Mode for Carrying Out the Invention] Paragraphs [0137] to [0146] describe as follows.
"[0137]
Furthermore, when “Presentation of spatial information that can be judged from the contents of video information” indicates forward → backward, “image information to be compared” and “previous image information” are concentrated at the center of the image information. The four corners are cases where the image shape information of the moving image information that is dispersed and changed in the image information comparison is reduced to a small size on the time axis per unit.
[0138]
When the space movement at this time is patterned using FIGS. 1 to 11, when the pattern before (1) 18 → 16 → 14 → 4 → 12 → 22 → 24 → 10 is used and the change per unit time is large Uses the pattern before (2) 18 → 14 → 12 → 24 → 10, and when the change is large, there is the pattern before (3) 20 → 16 → 4 → 24 → 26 → 10. If the image information 20 and 26 starts from the relational values of -Z> x, x> Z, -Z> y, and Z <y (20/26 as unfused image information), the viewer is immediately → Forward → backward → lose sight → feel the innermost space movement. (The lateral difference fusion range is about 100: 60 [error ± 10])
[0139]
Contrary to the above, when “Present spatial information of video information contents” indicates backward → forward, the “image information to be compared” and “previous image information” are concentrated at the center of the image information. The four corners are a case where the moving image information shape in which the image shape information of the moving image information that is dispersed and changes in the image information comparison changes on the time axis per unit increases greatly.
[0140]
At this time, using FIGS. 1 to 11, after pattern (4) 10 → 24 → 22 → 12 → 4 → 14 → 16 → 18, and when change per unit time is large, after pattern (5) 10 → 24 → 12 → 14 → 18 Further, when the change is large, there is (6) 10 → 26 → 24 → 4 → 16 → 20 after the pattern. At this time, the fused image information 26 and 20 has −Z> x, If it ends with the relational values x> Z, -Z> y, and Z <y (26.20 as unfused image information), the viewer is moved from the farthest → lost → backward → forward → forward spatial movement You will feel.
[0141]
In addition, when “Spatial information presentation of video information content” shows from right to left, the viewer can perceive the space slowly and small and clear in the moving direction as space recognition, and the space is fast before the moving direction.・ Large and dim feeling of the distortion of the space that comes from the video information method ("Spatial distortion") This is a case in which the image shape information of the moving image information that changes “information” in the detection point image information comparison shifts to the left on the time axis per unit. (Subtitles that move about 1/3 from the bottom of the screen should not be detected.)
[0142]
At this time, when using FIGS. 4 and 12 to 15, the pattern right (7) 12 → 28 → 30 → 30 → 12 is used, and when the change speed is large, the pattern right (8) 12 → 28 → 30 is even larger. If the pattern right (9) 12 → 28 → 28 and the last fused image information 28 ends with the relationship values of −Z> x, x> Z, −Z> y, Z <y (not fused) 28) Observation viewer as image information The viewer feels right-to-left-to-screen space movement.
[0143]
Contrary to the above, when the “spatial information presentation of video information content” indicates left → right, the “image information to be compared” and the “immediately before” are compared from the reason and the detection point same time unit information comparison. “Image information” is a case where the moving image information shape that changes per unit time shifts to the right. (Subtitles are the same as above.)
[0144]
At this time, in FIGS. 4 and 12 to 15, the pattern left (10) 12 → 27 → 29 → 29 → 12 is used, and when the change per unit is large, the pattern left (11) 12 → 27 → 29 When the change is large, if the pattern image (12) 12 → 27 → 27 and the last fused image information 27 ends with the relational values of -Z> x, x> Z, -Z> y, Z <y, 27) Observed viewers as image information that has not been performed will feel the left-to-right-to-screen space movement.
[0145]
Furthermore, when “Presentation of spatial information of video information contents” indicates front left → right rear / left rear → right front, right front → left rear / right rear → left front, “image information to be compared” and “previous right” Image information "is a combination of the moving image information shape that is changed by the detection point same time unit information enlargement / reduction / left / right shift described above before pattern (1) before pattern (2) before pattern (3) after pattern (4) After pattern (5) After pattern (6) Pattern right (7) Pattern right (8) Pattern right (9) Pattern left (10) Pattern left (11) Pattern left (12) .
[0146]
When “Presentation of spatial information that can be judged from the contents of video information” is up and down ↓ ↑, it is a little, but the upper and lower fusion range vertical difference of about 100: 114 [error ± 5] can be obtained, and the above pattern can be obtained. Can be combined. "
It is described.

前述した段落〔0138〕に記載されている「(融合していない画像情報としての20・26)観察視聴者は、目前→前方→後方→見失う→最奥の空間移動を感じることになる。(横方向差異融合範囲は、約100:60[誤差±10])」は、本特許明細書の図9・30・36、および、37の技法を加えるか、もしくは、「背景CD」上で、前述内容を行い、図3の技法を 加えることにより、「頭上通り抜け→最目前→目前→前方→後方→見失う→最奥の空間移動を感じる」に、表現範囲を広げることができる。   As described in the paragraph [0138], “(20/26 as unfused image information) 26. The viewer / viewer feels the immediate spatial movement → forward → rear → losing sight → the innermost space movement. The lateral difference fusion range is about 100: 60 [error ± 10]) "by adding the techniques of FIGS. 9, 30 and 36 and 37 of this patent specification, or on the“ background CD ” By performing the above-mentioned contents and adding the technique of FIG. 3, the range of expression can be expanded to “pass through overhead → nearest → near now → forward → backward → lose → feel deepest spatial movement”.

前述した段落〔0140〕に記載されている「(融合していない画像情報としての26・20)観察視聴者は、最奥→見失う→後方→前方→目前の空間移動を感じることになる。」は、本特許明細書の図9・30・36、および、37の技法を加えるか、もしくは、「背景CD」上で、前述内容を行い、図3の技法を 加えることにより、「最奥→見失う→後方→前方→目前→最目前→頭上通り抜けの空間移動を感じる」に、表現範囲を広げることができる。   As described in the paragraph [0140] described above, “(26.20 as image information that has not been merged) The viewer / viewer feels the spatial movement in the farthest → missing → backward → forward → front”. Add the technique shown in FIGS. 9, 30, 36 and 37 of this patent specification, or perform the above-mentioned contents on “Background CD” and add the technique shown in FIG. The range of expression can be expanded to “Lost → Back → Forward → Immediately → Nearest → Immediately feel the spatial movement through overhead”.

前述した段落〔0142〕に記載されている「(融合していない画像情報としての28)観察視聴者は、右→左→画面外の空間移動を感じることになる。」は、本特許明細書の図11・32の技法を加えるか、もしくは、「背景CD」上で、前述内容を行い、図5の技法を 加えることにより、「目前右→右→左→目前左→画面外の空間移動を感じる」に、表現範囲を広げることができる。   As described in the paragraph [0142] described above, “(28 as unfused image information) the viewer / viewer feels right-to-left-to-out-of-screen space movement”. 11 or 32, or the above-mentioned contents on the “Background CD” and the technique shown in FIG. 5 are added, so that “Right forward right → Right → Left → Left current → Space movement outside the screen” The range of expression can be expanded.

前述した段落〔0144〕に記載されている「(融合していない画像情報としての27)観察視聴者は、左→右→画面外の空間移動を感じることになる。」は、本特許明細書の図11・32の技法を加えるか、もしくは、「背景CD」上で、前述内容を行い、図5の技法を 加えることにより、「目前左→左→右→目前右→画面外の空間移動を感じる」に、表現範囲を広げることができる。   As described in the above paragraph [0144], “(27 as image information that has not been fused) the viewer / viewer feels left-to-right-to-out-of-screen space movement”. 11 or 32 above, or on the “Background CD”, do the above, and add the technique of FIG. The range of expression can be expanded.

前述した段落〔0145〕に記載されている「前述のパターン前(1)パターン前(2) パターン前(3) パターン後(4) パターン後(5) パターン後(6) パターン右(7) パターン右(8) パターン右(9) パターン左(10) パターン左(11) パターン左(12)の様々な組み合わせで対応できる。」は、本特許明細書の図7・9・11・28・30・32・43・44・45、および、46の各技法を加えるか、もしくは、「背景CD」上で、前述内容を行い、図1・3・5の技法を 加えることにより、「の、さらに、様々な組み合わせで対応できる。」に、表現範囲を広げることができる。   As described in the paragraph [0145], “Before pattern (1) Before pattern (2) Before pattern (3) After pattern (4) After pattern (5) After pattern (6) Pattern right (7) Pattern "Right (8) Pattern right (9) Pattern left (10) Pattern left (11) Various combinations of pattern left (12)" can be used. " Add 32, 43, 44, 45, and 46 techniques, or do the above on “Background CD” and add the techniques of FIGS. , Can be handled in various combinations. "

前述した段落〔0146〕に記載されている「映像情報内容から判断できる空間情報提示」が上下↓↑のときでは、若干であるが、上下融合範囲縦方向差異約100:114[誤差±5]で両形組融合画像情報でき、上記パターンに組み合せることができる。」は、本特許明細書の図7・9・11・28・30・32・34・35・36、および、37の各技法を加えるか、もしくは、「背景CD」上で、前述内容を行い、図1・3・5の技法を 加えることにより、「で両形組融合画像情報・両離輻輳融合画像情報でき、上記パターンに組み合せることができる。」に、表現範囲を広げることができる。   When “Presentation of spatial information that can be judged from the contents of video information” described in the paragraph [0146] is up and down ↓ ↑, there is a slight difference between the vertical and vertical fusion ranges of about 100: 114 [error ± 5]. Can be combined with the above pattern. "Addition of the techniques shown in Figs. 7, 9, 11, 28, 30, 32, 34, 35, 36, and 37 of this patent specification, or the above-mentioned contents are performed on" Background CD ". By adding the techniques shown in FIGS. 1, 3 and 5, it is possible to expand the range of expression to “can be combined with both forms of combined image information / deconvergence combined image information and combined with the above pattern”. .

「映像情報内容から判断できる空間情報提示」(図40の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報以外の「音情報」(図25の122)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of video information” (182 in FIG. 40), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 For example, a sumo relay program) can be detected from “sound information” (122 in FIG. 25) other than image information.

つまり、比較計測される「単位時間の比較音情報」(図25の122)、もしくは、「定・不定時間の比較 同時・直前・直後の同各音情報」(図25の122)と
比較基となる「時間軸上の音情報」(図25の131)との 情報比較で
That is, “comparison sound information of unit time” (122 in FIG. 25) or “comparison of constant / indefinite time, same sound information immediately before / after” (122 in FIG. 25) compared with the comparative measurement. Compared with the “sound information on the time axis” (131 in FIG. 25)

音情報の高低・同強弱・同音色の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)を検出後、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)を検出することができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Anomaly” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlarge” (145 in FIG. 25) “Reduce” (146 in FIG. 25) “Expand” (147 in FIG. 25) “Compress” (148 in FIG. 25) “Equivalent” (149 in FIG. 25) ) “Match” (150 in FIG. 25) “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” ( 155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) ) “Separation” (161 in FIG. 25) “Tilt” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” 164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Near” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (220 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (FIG. 226) “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) “ “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
After detecting “processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays” (169 in FIG. 25), or “ "Processing information to be detected" (170 in FIG. 25) can be detected.

「時間軸上の音情報」(図25の131)とは、
『「過去の確定音情報」・「現在進行中の音情報」・「未来変化予側される推定音情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた音情報』の内、少なくとも1以上からなる。
“Sound information on the time axis” (131 in FIG. 25)
“Memorize“ Past definite sound information ”,“ Current sound information in progress ”,“ Estimated sound information predicted to change in the future ”, the average value of the similar class, or the deviation value of the similar class, or It is composed of at least one of the predicted and stored sound information.

音情報(図25の122・131)は、楽音・騒音(雑音)・純音に分けると記憶すべき情報量が多くなるため、「音声音色(人の声)」・「映像情報用効果音音色」・「音響音色(曲・リズム)」・「騒音音色(日常的意味;極めて簡単な1例として歓声)」に分けるか、さらに少ない情報量で済む前後の空間画像情報移動表現を要求される映像情報場面状況別(極めて簡単な場面状況例として「1相撲の取り組み場面状況」・「2野球の安打・クロスプレイ場面状況」・「3サッカーシュート場面状況」・「4ボクシングラッシュ場面状況」・「5その他スポーツの盛り上がり場面状況」・「6スリラー映画の恐怖場面状況」・「7その他 恐怖場面状況」・「8驚き場面状況」・「9爆発場面状況」・「10電撃的シーン場面状況」・「11ニュース場面状況」・「12料理場面状況」・「13風景場面状況」・「14逃走場面状況」・「15追走場面状況」・「16格闘場面状況」・「17旅行場面状況」・「18その他の感動場面状況」・「19水・海水・霧・雨・煙・火炎・雲・各流体物の流れなどの顔面に、迫る場面状況」)の音色音情報の記録に分ける方法があり、これに、近似値の幅を持たしてもよい。   The sound information (122 and 131 in FIG. 25) has a large amount of information to be stored when it is divided into musical sounds, noise (noise), and pure tones. Therefore, “sound timbre (human voice)” and “video information effect sound timbre” "Sound timbre (song, rhythm)", "Noise timbre (daily meaning; cheers as an extremely simple example)", or a spatial image information movement expression before and after that requires less information According to the video information scene situation ("1 sumo wrestling scene situation", "2 baseball hits / cross play scene situation", "3 soccer shoot scene situation", "4 boxing rush scene situation", etc.) "5 Other sports excitement scene situations" "6 Thriller movie horror scene situations" "7 Other horror scene situations" "8 Surprise scene situations" "9 Explosive scene situations" "10 Electric shock scene situations"・ " “1 news scene situation”, “12 cooking scene situation”, “13 landscape scene situation”, “14 escape scene situation”, “15 follow-up scene situation”, “16 fighting scene situation”, “17 travel scene situation”, “ 18 other emotional scene situations ”and“ 19 scenes approaching the face of water, seawater, fog, rain, smoke, flames, clouds, and the flow of fluids ”) This may have an approximate value width.

極めて簡単な場面状況例を参考に説明すると、映像情報場面状況別のキーとなる音は、「1の場面状況」では、行司の声とアナウンサーの「さあ、時間です」。歓声(約1秒)は幕下では、起こらない。行司の声「ハッケヨイ」・「タラッタラッタラッタ」は、各人かなり音色が違うため、全員記憶する必要がある。「2の場面状況」は、アナウンサーの「さあ、バッター打席に立ちました・打ちました・三振」等の決まり文句と歓声がある。「3の場面状況」・「4の場面状況」・「5の場面状況」も前記同様アナウンサーの決まり文句と観客席の歓声である。「6の場面状況」・「7の場面状況」とも恐怖専用効果音・同過去に使われた専用効果音楽と「キャー、ギャー」(97〜103/100秒)類の悲鳴。   To explain with reference to an extremely simple example of a scene situation, the key sound for each video information scene situation is “Scene situation of 1”, the voice of the boss and the announcer “It's time”. Cheers (about 1 second) do not occur at the bottom of the shogunate. The voices of the bosses “Hakkeyoi” and “Taratta Ratta Ratta” must be memorized because everyone has a very different tone. “Scene situation of 2” has a cheerful phrase and cheers such as “Now, I'm standing at the batter's bat, I struck, and strikeout”. “Scene situation of 3”, “scene situation of 4”, and “scene situation of 5” are also the phrases of the announcer and cheers of the audience seats as described above. "Scene situation of 6" and "Scene situation of 7" are horror-only sound effects, special effect music used in the past, and screams of "Kah, Gya" (97-103 / 100 seconds).

「8の場面状況」は、「あぁ・わー・わぉ・えっ・えぇー」などの感嘆音。「9の場面状況」は、爆発音(105〜115/100秒)。「10の場面状況」は、雷鳴(38〜45/100秒)等のショック用効果音。「11の場面状況」は、「○○のニユース・本日の○○は、・臨時ニュース」です等のニュース定形語。「12の場面状況」は、「さあ、できました・美味しそうですね・食べてみましょう・では、いきます」等の料理定形語・料理専用音楽。「13の場面状況」は、同場面状況に過去使用された のどかな音楽と行き交う車両音・川のせせらぎ音・滝の落下音・鳥の声等の自然環境音・収録音。「14・15の場面状況」は、足音・車両エンジン音・タイヤ軋み音等の 動く物の効果音と 過去の使用の効果音楽・収録音。 「16の場面状況」は、刃物類の殺陣音・殴打音等の格闘効果音と役者の気合音声。「17場面状況」は、同場面状況に過去使用されたのどかな音楽と「○○に来ました・○○に着きました・○○が見えます」の旅行定型句。が挙げられる。   "Scene situation of 8" is an exclamation sound such as "Oh, wow, wow, eh, yeah". “9 scene situation” is explosion sound (105-115 / 100 seconds). "10 scene situations" are sound effects for shocks such as thunder (38-45 / 100 seconds). “11 scene situations” is a fixed-form word such as “News of XX / Today ’s XX is extraordinary news”. “12 scenes” is a cooking standard and cooking-specific music such as “Now it ’s done, it looks delicious, let ’s eat, and let ’s go.” “13 scene situations” are sounds of natural environment such as vehicle sounds, river buzzing sounds, waterfall falling sounds, bird voices and other sounds that come and go with idyllic music used in the past. “14/15 scene situations” are the sound effects of moving objects such as footsteps, vehicle engine sounds, tire squeaking sounds, and the effects and recorded sounds of past use. “16 scene situations” are fighting sound effects such as sword fighting sound and hammering sound of cutlery, and voices of actors. “17 scene situation” is a travel phrase of “I came to XX, I arrived at XX, I can see XX” and idyllic music that was used in the past for the same scene situation. Is mentioned.

前記キーとなる音情報(図25の122・131)は、0.000025秒〜7秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25・40の182) The key sound information (122 and 131 in FIG. 25) is captured at short intervals such as 0.000025 seconds to 7 seconds, and each scene situation is determined. (182 in FIGS. 25 and 40)

各場面状況確定後(図40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択するか(図40の185)、更に、細かく「時間軸上の音情報」(図25の131)との情報比較を行う。 After confirming the situation of each scene (182 in FIG. 40), rear → front → front → frontmost / rear ← front ← current ← rightest image information signal (185 in FIG. 40) is selected. Information comparison with “sound information on the time axis” (131 in FIG. 25) is performed.

従って、最初から、全ての音情報(図25の122・131)を、細かく情報比較する必要はない。 Therefore, it is not necessary to compare all sound information (122 and 131 in FIG. 25) from the beginning.

各場面状況検知のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and fast information comparison is sufficient to detect the situation of each scene.

前記細かなキーとなる音情報は、0.000025秒〜7秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の音の強弱・音の高低との音情報比較で平均値、もしくは、偏差値+各αライン値を超えた基準値点をスタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。(図25の131) The sound information used as the fine key is captured at short intervals such as 0.000025 to 7 seconds, or in the form of simultaneous progress, the average or deviation value of the scene situation. By comparing the sound information with high and low, the reference value point that exceeds the average value or deviation value + each α line value is set as the starting point, and the point that falls below the reference value point at the same short time interval can be set as one goal point. (131 in FIG. 25)

相対的変化の管理の方が、どのような映像情報にも 対応でき、音情報(図25の122・131)の変化こそ 該映像情報観察視聴者の心情変化と 合致するためである。(テレビジョン放送ディジタル化による 空きスペースに場面状況信号を書き込む方法は、自立していないため他の画像情報に対応できない点で、実用性が薄いが、市場形成促進のため、行っても構わない。)  This is because the relative change management can cope with any video information, and the change in the sound information (122 and 131 in FIG. 25) matches the emotional change of the video information observation viewer. (The method of writing a scene status signal in an empty space by digitization of television broadcasting is not practical because it is not self-supporting and cannot handle other image information, but it may be done to promote market formation. .)

音情報の絶対的変化の管理としては、1種に、「18その他の感動場面状況」の場合、殆どの感動場面状況の時、誰でも、人の声は、平常時での、音色の高低・強弱が、感動場面状況に、近づくにつれ、高く・強く・音色の波形も短くなることで、感動場面状況を、捕えることもできる1種類が、ある。  As for the management of the absolute change of sound information, in the case of “18 other emotional scene situations”, in almost any emotional scene situation, the voice of the person is normal and the tone level is high.・ As the strength gets closer to the moving scene situation, it becomes higher, stronger, and ・ The sound waveform is shortened, so there is one type that can capture the moving scene situation.

別の1種類としての、音情報の絶対的変化の管理としては、「18その他の感動場面状況」の場合、殆どの感動場面状況の時、高揚する音・沈鬱となる音・心情が、引き伸ばされる音・軽妙な音・苛々する音、および、重厚感を想像させる音などの誰でも、音色の高低・強弱により、導かれる感情移入音が、或る程度、共通している傾向が存在しているため、この音で、感動場面状況を、捕えることもできる別の1種類が、ある。  As another type of management of absolute changes in sound information, in the case of “18 other emotional scene situations”, in most emotional scene situations, uplifting sounds, depressed sounds and emotions are stretched. There is a tendency for the emotional empathetic sound that is introduced to some degree to be shared by the sound level, strength, and weakness of the sound. Therefore, there is another type that can capture the moving scene situation with this sound.

従って、「音情報の相対的変化の管理」と「2種の音情報の絶対的変化の管理」を合わせ持った方が、より、効果を上げられる。 Therefore, the combination of “management of relative change of sound information” and “management of absolute change of two kinds of sound information” is more effective.

また、1/f揺らぎやゆっくりした曲に合わせて空間画像情報が前後に揺れてもよい。 Also, the spatial image information may swing back and forth in accordance with 1 / f fluctuation or a slow song.

また、テレビジョンチャンネル変更で番組途中から鑑賞する観察視聴者には、チャンネル変更信号電波検知に依り、最初に戻り、比較検知活動を行えば、良い。 In addition, it is only necessary to return to the beginning and perform comparative detection activities for the viewer who watches from the middle of the program by changing the television channel, depending on the channel change signal radio wave detection.

さらに、「19ひそひそ話からの劇的展開場面状況」では、バック音楽なし・音声の弱さ・同低さの後の強い音・高い音の参入音、さらに、無言時間だけでは判断できない時は、静止画像情報(映像情報上は、役者同士が一瞬見つめ合う場面状況)(図25の127・136)も考慮に入れ、音情報(図25の122・131)と画像情報(図25の136)を総合して「映像情報内容から判断できる空間情報提示」(図40の182)に対応できる。   In addition, in "19 dramatic situations from the secret story", when there is no back music, weak voice, strong sound after the same low, high sound entry sound, and when it can not be judged only by silent time, Taking into consideration still image information (on the video information, scenes where actors stare at each other for a moment) (127, 136 in FIG. 25), sound information (122, 131 in FIG. 25) and image information (136 in FIG. 25) Can be handled as “spatial information presentation that can be determined from the video information content” (182 in FIG. 40).

また、音情報による「6スリラーの恐怖場面状況」・「7その他恐怖場面状況」・「14逃走場面状況」・「15追走場面状況」・「16格闘場面状況」の獲得は、空間情報変化を、生態拒絶反応が、起きないよう、後方→前方・前方→後方を、場面状況に応じて、選択したほうが、よく(画像情報が前方→後方であっても後方→前方にする場合もあり得る。)(図40の185)、「映像情報内容から判断できる空間情報提示」(この場合「緊迫場面状況の圧迫感」)(図25・40の182)に、生態拒絶反応が、働かずに対応できていることになり、画像情報(図25の127・136)よりも音情報(図25の122・131)が優先される。(比較画像情報量が極端に少ないため。) In addition, acquisition of “6 thriller horror scene situations”, “7 other horror scene situations”, “14 runaway scene situations”, “15 follow-up scene situations”, and “16 fighting scene situations” by sound information will change spatial information It is better to select backward → forward / forward → backward according to the scene situation so that ecological rejection does not occur (even if the image information is forward → backward, it may be backward → forward). (185 in Fig. 40), "Presentation of spatial information that can be judged from the contents of video information" (in this case, "the feeling of pressure in the situation of tension") (182 in Fig. 25, 40), ecological rejection reaction does not work Therefore, the sound information (122 and 131 in FIG. 25) is given priority over the image information (127 and 136 in FIG. 25). (Because the amount of comparison image information is extremely small.)

一般に、名画と言われる場面状況表現には、観客の生態機能を良く理解した、生態機能の休み時間・表現力の強弱も随所に入れた、生態拒絶反応が、起きない一定のリズムから構成されていることが多く、このリズムを、模倣して表現してもよい。 In general, the scene situation expression, which is said to be a masterpiece, consists of a certain rhythm that does not cause an ecological rejection reaction that fully understands the ecological function of the audience, and also includes the rest time of the ecological function and the strength of expressiveness. In many cases, this rhythm may be imitated.

「19水・海水・霧・雨・煙・火炎・雲・各流体物の流れなどの顔面に、迫る場面状況」では、通常の前記音情報、もしくは、前後の通常画面の音情報が、耳元に、迫るほどの独特の音情報へと変化するため、これを捕えて、この迫る場面状況を、捕えることもできる。 In “19 scenes approaching the face, such as water, seawater, fog, rain, smoke, flame, clouds, and the flow of fluids”, the normal sound information or the sound information of the normal screen before and after In addition, since the sound information changes so as to approach, it is possible to capture this approaching situation.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「人情報」(図25の124・133)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, a sumo relay program can be detected also from “personal information” (124 and 133 in FIG. 25) in the image information (121 in FIG. 25).

つまり、比較計測される「単位時間の比較人情報」(図25の124)、もしくは、「定・不定時間の比較 同時・直前・直後の同各人情報」(図25の124)と
比較基となる「時間軸上の人情報」(図25の133)との 情報比較で
That is, “Comparison information of unit time” (124 in FIG. 25) or “Comparison information of constant / indefinite time comparison, same person information immediately before / after” (124 in FIG. 25) and comparison basis. By comparing the information with “Personal information on the time axis” (133 in FIG. 25)

人情報(図25の124・133)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出することができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Anomaly” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” of human information (124, 133 in FIG. 25) (144 in FIG. 25) “Enlarge” (145 in FIG. 25) “Reduce” (146 in FIG. 25) “Expand” (147 in FIG. 25) “Compress” (148 in FIG. 25) “Equivalent” (149 in FIG. 25) ) “Match” (150 in FIG. 25) “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” ( 155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) ) “Separation” (161 in FIG. 25) “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Near” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (in FIG. 25) 220) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) ) Of “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. It can be detected by “information” (170 in FIG. 25).

「時間軸上の人情報」(図25の133)とは、
『「過去の確定人情報」・「現在進行中の人情報」・「未来変化予側される推定人情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた人情報』の内、少なくとも1以上からなる。
“Personal information on the time axis” (133 in FIG. 25)
"Memorize the information of past confirmed persons", "Person information currently in progress", "Estimated person information predicted to change in the future", the average value of the similar class, or the deviation value of the similar class, or It is composed of at least one of “predicted and stored human information”.

「人情報」は、人型情報・服帽子情報・髪型情報・顔情報・目元情報・口元情報・鼻位置情報・手情報・人体各部各位置情報・肌・靴情報・人型不停止情報・人型歩行走行情報があり、それぞれ、色・柄が、加わる。 "Human information" includes human type information, clothes hat information, hairstyle information, face information, eye information, mouth information, nose position information, hand information, position information of each part of the human body, skin, shoe information, human type non-stop information, There is humanoid walking information, and colors and patterns are added respectively.

「人不停止情報」とは、人は、映像情報上 必ず動く為、その情報により、人形との差異を検知できる。動くとは、風による体の揺れ、静止中での細かな体の揺れ、呼吸による体の揺れ、演技中での振り向き、首振り、手振り等の細やかな気配り演技、会話中での口元の変化、瞬き、ウインク、目線・視点・白目の変化、開口した目の大きさ・形の変化、笑い顔・泣き顔・寂し顔等の筋肉・眉毛・皺・髭・傷・唇の形・白い歯の見え隠れ、および、前髪の揺れ等の一瞬の変化が、上げられ、殆どの場合、人型が、どこか一定せず、いずれかで、変化が起こる。 “Personal non-stop information” means that a person always moves on video information, so the information can detect a difference from a doll. Movement means shaking of the body due to the wind, shaking of the body while still, shaking of the body due to breathing, turning during the performance, swinging gestures such as swinging and shaking hands, changes in the mouth during conversation , Blink, wink, changes in eyes / viewpoint / white eyes, changes in size / shape of open eyes, muscles such as laughing face / crying face / lonely face, eyebrows, eyelids, eyelids, wounds, lip shape, white teeth Instantaneous changes, such as visibility and bangs, are raised, and in most cases, the human figure is not constant somewhere, and changes occur anywhere.

前記極めて簡単な場面状況例におけるキーとなる人情報は、各場面状況毎に異なっているため、この差異から、場面状況を特定できることになる。    Since the person information that is a key in the above extremely simple scene situation example is different for each scene situation, the scene situation can be specified from this difference.

前記キーとなる人情報は、0.000025秒〜3秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The person information as the key is captured at short intervals such as 0.000025 seconds to 3 seconds, and the situation of each scene is determined. (182 in FIG. 25)

各場面状況確定後、(図25・40の182)後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上の人情報」(図25の133)との情報比較を行う。 After confirming the situation of each scene (182 in FIGS. 25 and 40), select which of the image information signals of the rear, front, front, front, rear, front, rear, front, front, and front (185 of FIG. 40), Detailed information comparison with “person information on the time axis” (133 in FIG. 25) is performed.

従って、最初から、全ての人情報(図25の124・133)を、細かく情報比較する必要はない。   Therefore, from the beginning, it is not necessary to perform detailed information comparison of all human information (124 and 133 in FIG. 25).

各場面状況検知のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and fast information comparison is sufficient to detect the situation of each scene.

前記細かなキーとなる人情報は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値の人情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。相対的変化の管理の方が、どのような映像情報にも 対応し易い。 The person information that becomes the fine key is captured at short time intervals such as 0.000025 seconds to 3 seconds, or is the simultaneous progress type, the average value of the scene situation, or the human information comparison of the deviation value, The reference value point that exceeds the average value or deviation value + each α line value is taken as the starting point, and a point that falls below the reference value point at the same short time interval can be set as one goal point. Management of relative changes is easier to deal with any video information.

人情報(図25の124・133)の変化は、 該映像情報観察視聴者の心情変化と合致するためである。 This is because the change in the human information (124 and 133 in FIG. 25) coincides with the emotional change of the video information observation viewer.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として、動物映像情報)は、画像情報内(図25の121)の「生物情報」(図25の125・134)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, animal video information) can also be detected from “biological information” (125 and 134 in FIG. 25) in the image information (121 in FIG. 25).

つまり、比較計測される「単位時間の比較生物情報」(図25の125)、もしくは、「定・不定時間の比較 同時・直前・直後の同各生物情報」(図25の125)と
比較基となる「時間軸上の生物情報」(図25の134)との 情報比較で
That is, “Comparison information on unit time” (125 in FIG. 25) or “Comparison information on same / immediate time / same time / immediately before / after” (125 in FIG. 25) to be compared and measured. By comparing the information with “biological information on the time axis” (134 in FIG. 25)

生物情報(図25の125・134)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出することができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” of biological information (125, 134 in FIG. 25) (144 in FIG. 25) “Enlarge” (145 in FIG. 25) “Reduce” (146 in FIG. 25) “Expand” (147 in FIG. 25) “Compress” (148 in FIG. 25) “Equivalent” (149 in FIG. 25) ) “Match” (150 in FIG. 25) “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” ( 155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) ) “Separation” (161 in FIG. 25) “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “ "Roll" (164 in Fig. 25) "Breakthrough" (165 in Fig. 25) "Now" (166 in Fig. 25) "Pass" (167 in Fig. 25) "Proportional" (219 in Fig. 25) "Inverse proportion" (Fig. 25 220) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” ”(226 in FIG. 25)“ Right ”(227 in FIG. 25)“ Left ”(228 in FIG. 25)“ North ”(229 in FIG. 25)“ South ”(230 in FIG. 25)“ West ”(in FIG. 25) 231) Among “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. It can be detected by “information” (170 in FIG. 25).

「時間軸上の生物情報」(図25の134)とは、
『「過去の確定生物情報」・「現在進行中の生物情報」・「未来変化予側される推定生物情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた生物情報』の内、少なくとも1以上からなる。
“Biological information on the time axis” (134 in FIG. 25)
“Memorize the information of past confirmed organisms”, “Currently ongoing organism information”, “Estimated organism information predicted to change in the future”, the average value of the similar class, or the deviation value of the similar class, or It consists of at least one of the biological information predicted and stored.

「生物情報」は、生物型情報・服帽子情報・髪型情報・顔情報・目元情報・口元情報・鼻位置情報・手情報・生物体各部各位置情報・肌・靴情報・生物型不停止情報・生物型歩行走行情報があり、それぞれ、色・柄が、加わる。 "Biological information" includes biological type information, clothes hat information, hairstyle information, face information, eye information, mouth information, nose position information, hand information, information on each part of the organism, skin, shoe information, and biological type non-stop information.・ There is biological walking information, and colors and patterns are added respectively.

「生物不停止情報」とは、生物は、映像情報上 必ず動く為、その情報により、生物マネキン・生物型人形との差異を検知できる。動くとは、風による体の揺れ、静止中での細かな体の揺れ、呼吸による体の揺れ、演技中での振り向き、首振り、手振り等の細やかな気配り演技、呼吸・唸り・吠える行為・会話中での口元の変化、瞬き、ウインク、目線・視点・白目の変化、開口した目の大きさ・形の変化、笑い顔・泣き顔・寂し顔等の筋肉・眉毛・皺・髭・傷・唇の形・白い歯牙の見え隠れ・前髪前毛の揺れ等の一瞬の変化が、上げられ、殆どの場合、生物型が、どこか一定していない。 “Biological non-stop information” means that living organisms always move on the video information, so the information can be used to detect differences from biological mannequins and biological dolls. Movement means shaking of the body by the wind, shaking of the body at rest, shaking of the body by breathing, turning during the performance, swinging, swinging, hand gestures, etc. Mouth change during conversation, blink, wink, eye / viewpoint / white eye change, open eye size / shape change, muscles such as laughing face / crying face / lonely face, eyebrows, eyelids, wrinkles, wounds, etc. Instantaneous changes such as the shape of the lips, the appearance of white teeth, and the bangs of the bangs are raised, and in most cases, the biotype is not constant.

また、静止しているカメレオン、ナマケモノ、植物以外は、眠っている状態で あり、目の位置確認後、瞼目の形状 状態で、確定できる。   Other than the stationary chameleons, sloths, and plants are in a sleeping state, and after confirming the position of the eyes, they can be confirmed by the shape of the cells.

前記極めて簡単な場面状況で生物登場場面状況例におけるキーとなる生物情報(図25の125・134)は、各場面状況毎に異なっているため、この差異から、場面状況を特定できることになる。(図25・40の182)    Since the biological information (125 and 134 in FIG. 25) which is a key in the example of the appearance scene of the creature in the extremely simple scene situation is different for each scene situation, the scene situation can be specified from this difference. (182 in FIGS. 25 and 40)

前記キーとなる生物情報(図25の125・134)は、0.000025秒〜3秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25・40の182) The biological information (125 and 134 in FIG. 25) as the key is captured at short intervals such as 0.000025 seconds to 3 seconds, and each scene situation is determined. (182 in FIGS. 25 and 40)

各場面状況確定後、(図25・40の182)後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上の生物情報」との情報比較を行う。 After confirming the situation of each scene (182 in FIGS. 25 and 40), select which of the image information signals of the rear, front, front, front, rear, front, rear, front, front, and front (185 of FIG. 40), Detailed information comparison with "biological information on the time axis" is performed.

従って、最初から、全ての生物情報(図25の125・134)を、細かく情報比較する必要はない。 Therefore, it is not necessary to compare all biological information (125 and 134 in FIG. 25) from the beginning.

各場面状況検知(図25・40の182)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and fast processing information comparison for each scene situation detection (182 in FIGS. 25 and 40) is sufficient.

前記細かなキーとなる生物情報(図25の125・134)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の生物情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。相対的変化の管理の方が、どのような映像情報にも 対応し易い。 The biological information (125 and 134 in FIG. 25), which is the fine key, is captured at short intervals such as 0.000025 seconds to 3 seconds, or is the simultaneous progress type, the average value of the scene situation, or By comparing biological information of deviation values, the average value, or a reference value point that exceeds the deviation value + each α line value can be used as a starting point, and a point that falls below the reference value point at the same short time interval can be set as one goal point. Management of relative changes is easier to deal with any video information.

生物情報(図25の125・134)の変化は、 該映像情報観察視聴者の心情変化と深く関わっているためである。 This is because the change of the biological information (125 and 134 in FIG. 25) is deeply related to the emotional change of the video information observation viewer.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「文字情報」(図25の123・132)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, a sumo relay program can also be detected from “character information” (123 and 132 in FIG. 25) in the image information (121 in FIG. 25).

つまり、比較計測される「単位時間の比較文字情報」(図25の123)、もしくは、「定・不定時間の比較 同時・直前・直後の同各文字情報」(図25の123)と
比較基となる「時間軸上の文字情報」(図25の132)との 情報比較で
That is, “comparison character information for unit time” (123 in FIG. 25) or “comparison of constant / indefinite time, same character information immediately before / after” (123 in FIG. 25) and comparison base. By comparing the information with the “character information on the time axis” (132 in FIG. 25)

文字情報の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出することができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlargement” ”(145 in FIG. 25)“ Reduction ”(146 in FIG. 25)“ Expansion ”(147 in FIG. 25)“ Compression ”(148 in FIG. 25)“ Equivalent ”(149 in FIG. 25)“ Match ”(in FIG. 25) 150) “approximate” (151 in FIG. 25) “similar” (152 in FIG. 25) “similar” (153 in FIG. 25) “related” (154 in FIG. 25) “difference” (155 in FIG. 25) “intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) “Separation” (in FIG. 25 161) “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “ "Break" (165 in Fig. 25) "Now" (166 in Fig. 25) "Pass" (167 in Fig. 25) "Proportional" (219 in Fig. 25) "Inverse proportion" (220 in Fig. 25) "High" (Fig. 221) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “ “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) “East” (FIG. 25 232) and “unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. It can be detected by “information” (170 in FIG. 25).

「時間軸上の文字情報」(図25の132)とは、
『「過去の確定文字情報」・「現在進行中の文字情報」・「未来変化予側される推定文字情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた文字情報』の内、少なくとも1以上からなる。
“Character information on the time axis” (132 in FIG. 25)
“Memorize the past fixed character information”, “Current character information in progress”, “Estimated character information predicted to change in the future”, the average value of the similar class, or the deviation value of the similar class, or It is composed of at least one of the “predicted and stored character information”.

「文字情報」は、文字型情報・文字型容量制限情報・文字型一定停止情報・文字型一定速度一方向移動情報があり、それぞれ、色・柄が、加わる。 “Character information” includes character type information, character type capacity restriction information, character type constant stop information, and character type constant speed one-way movement information, which are respectively added with a color and a pattern.

しかし、殆どの文字情報は、読みやすいことが、優先されるため、単一色が、単一に縁取り色、および、前記縁取りに、黒色線による境界線引きが、大半である。   However, since most of the character information is given priority to being easy to read, the single color has a single border color, and the border is mostly drawn with a black line.

「文字型容量制限情報」とは、文字情報が、読みやすいことが、最優先されるため、人が読み取れる大きさの制限を、強いられる事になる特徴を持つ。 “Character type capacity restriction information” is characterized in that the ease of reading the character information is given the highest priority, and therefore the restriction on the size that can be read by a person is imposed.

つまり、大きすぎても、小さすぎても、文字情報検知作業から、外されることになる。   That is, whether it is too large or too small, it is excluded from the character information detection work.

「文字型一定停止情報」とは、文字情報が、読みやすいことが、最優先されるため、人が読み取る時間内は、停止している特徴を持つ。 “Character type constant stop information” has the feature that the text information is stopped during the time it is read, because priority is given to easy reading.

此れにより、人が読み取る時間内以上を、停止している画像情報は、文字の可能性が、高まり、単一色か、単一に縁取り色の色情報、および、前記に黒の境界線付き情報・適度な大きさ情報により、文字情報の確定と、個々の文字内容の情報比較検索へと 検知作業が、進められ、文字の意味に、到達できる。   As a result, image information that has been stopped for more than the time that a person reads is more likely to be a character, with single color or single border color information, and with a black border With the information and moderately sized information, the detection work can proceed to the determination of character information and the information comparison search of individual character contents, and the meaning of characters can be reached.

「文字型一定速度一方向移動情報」とは、文字情報が、読みやすいことが、最優先されるため、人が読み取れる速度で、移動し、且つ、速度が、一定であり、一方向にしか移動しないと言う特徴を持つ。 “Character-type constant speed one-way movement information” means that text information is easy to read and the highest priority is given, so it moves at a speed that humans can read and the speed is constant, and it is only in one direction. It has the feature of not moving.

此れにより、人が読み取れる速度で、一定速度移動し、一方向にしか移動しない画像情報は、文字の可能性が、高まり、単一色か・単一に縁取り色か、および、前記に黒の境界線付きか の以上の色情報・適度な大きさ情報により、文字情報の確定と、個々の文字内容の情報比較検索へと 検知作業が、進められ、文字の意味に、到達できる。   As a result, image information that moves at a constant speed at a speed that can be read by humans and moves only in one direction has an increased possibility of characters, whether it is a single color or a single border color, and the above-mentioned black information. With the above-mentioned color information with appropriate borders and appropriate size information, the detection process can proceed to the confirmation of character information and the information comparison search of individual character contents, and the meaning of characters can be reached.

前記極めて簡単な場面状況例におけるキーとなる文字情報(図25の123・132)は、各場面状況毎に異なっているため、この差異から、場面状況を特定できることになる。(図25の182)   Since the character information (123 and 132 in FIG. 25) as a key in the extremely simple scene situation example is different for each scene situation, the scene situation can be specified from this difference. (182 in FIG. 25)

前記キーとなる文字情報(図25の123・132)は、0.000025秒〜3秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The key character information (123 and 132 in FIG. 25) is captured at short intervals such as 0.000025 seconds to 3 seconds, and each scene situation is determined. (182 in FIG. 25)

各場面状況確定後(図25・40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上の文字情報」(図25の132)との情報比較を行う。 After confirming the situation of each scene (182 in FIGS. 25 and 40), select which of the image information signals of the rear → front → in front → frontmost / backward ← forward ← in front ← frontmost (185 in FIG. 40), Detailed information comparison with “character information on the time axis” (132 in FIG. 25) is performed.

従って、最初から、全ての文字情報(図25の123・132)を、細かく情報比較する必要はない。 Therefore, it is not necessary to compare all character information (123 and 132 in FIG. 25) from the beginning.

各場面状況検知のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and fast information comparison is sufficient to detect the situation of each scene.

前記細かなキーとなる文字情報(図25の123・132)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の文字情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、個々の文字内容確定作業を 相対的変化に管理する方が、どのような映像情報にも 対応し易い。文字情報(図25の123・132)の提供・変化は、 該映像情報観察視聴者の心情変化と合致するためである。 The character information (123 and 132 in FIG. 25), which is a fine key, is captured at short intervals of 0.000025 seconds to 3 seconds or the like, or is the simultaneous progress type, the average value of the scene situation, or In the character information comparison of the deviation value, the average value or the reference value point exceeding the deviation value + each α line value can be used as the starting point, and the points below the reference value point at the same short time interval can be set as one goal point. It is easier to deal with any video information if the character content determination work is managed with relative changes. This is because the provision / change of the text information (123 and 132 in FIG. 25) coincides with the emotional change of the video information observation viewer.

個々の文字内容確定作業とは、個々の文字の特徴情報群検索から 登録されている時間軸上にある、個々の文字情報が持つ、特徴情報群との情報比較後、個々の文字情報のさらに細かな同情報との照合作業による、個々の文字の確定。 Individual character content confirmation work refers to the processing of individual character information after comparing the information with the feature information group of each character information on the time axis registered from the feature information group search of each character. Confirmation of individual characters through collation with detailed information.

確定された個々の文字同士の連結順から来る 連結文字の意味の確定。 Determine the meaning of the concatenated characters that come from the concatenated order of the individual characters.

または、速い制御処理命令発信方法として、「比較基となるキーとなる連結文字のみ」が持つ特徴情報群照合の後、個々の文字情報のさらに細かな同情報との照合作業による、個々の文字の確定がある。 Or, as a fast control processing command transmission method, after collating the feature information group of “only connected characters that are the key to be compared” with individual character information by further collation with the same information, individual characters There is a fixed.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「物情報」(図25の126・135)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, a sumo relay program can also be detected from “object information” (126 and 135 in FIG. 25) in the image information (121 in FIG. 25).

つまり、比較計測される「単位時間の比較物情報」(図25の126)、もしくは、「定・不定時間の比較 同時・直前・直後の同各物情報」(図25の126)と
比較基となる「時間軸上の物情報」(図25の135)との 情報比較で
That is, “Comparison information of unit time” (126 in FIG. 25) or “Comparison information of constant / indefinite time, same / immediate / immediate before / after” (126 in FIG. 25) and comparison basis. By comparing the information with the “object information on the time axis” (135 in FIG. 25)

物情報(図25の126・135)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出することができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlarge” (145 in FIG. 25) “Reduce” (146 in FIG. 25) “Expand” (147 in FIG. 25) “Compress” (148 in FIG. 25) “Equivalent” (149 in FIG. 25) ) “Match” (150 in FIG. 25) “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” ( 155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) ) “Separation” (161 in FIG. 25) “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Near” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (in FIG. 25) 220) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) ) Of “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. It can be detected by “information” (170 in FIG. 25).

「時間軸上の物情報」(図25の135)とは、
『「過去の確定物情報」・「現在進行中の物情報」・「未来変化予側される推定物情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた物情報』の内、少なくとも1以上からなる。
“Thing information on the time axis” (135 in FIG. 25) is
“Memorize“ Past information of the past ”,“ Information of the current work ”,“ Estimated information that is expected to change in the future ”, the average value of the similar class, or the deviation value of the similar class, or It is composed of at least one of the “predicted and stored object information”.

「物情報」は、物型情報・色情報・柄情報・カメラ類アアングルから生まれる物型変形情報・物と物との組み合わせから生まれる物型組み合わせ情報・単位時間当たりの物体移動速度・方向・角度情報がある。 "Object information" is information on object type, color information, pattern information, information on deformation of objects born from camera angles, information on combination of objects born from a combination of objects and objects, object movement speed per unit time, direction, angle There is information.

前記極めて簡単な場面状況例におけるキーとなる物情報は、各場面状況毎に異なっているため、この差異から、場面状況を特定できることになる。    Since the object information which is a key in the extremely simple scene situation example is different for each scene situation, the scene situation can be specified from this difference.

前記キーとなる物情報(図25の126・135)は、0.000025秒〜1秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The key object information (126 and 135 in FIG. 25) is captured at short intervals such as 0.000025 seconds to 1 second, and each scene situation is determined. (182 in FIG. 25)

各場面状況確定後(図25・40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図25・40の185)か、更に、細かく「時間軸上の物情報」(図25の135)との情報比較を行う。 After confirming the situation of each scene (182 in FIGS. 25 and 40), which of the following image information signals is selected (185 in FIGS. 25 and 40): rear → front → near → frontmost / rear ← forward ← near ← frontmost 185 Furthermore, information comparison with “object information on the time axis” (135 in FIG. 25) is performed in detail.

従って、最初から、全ての物情報(図25の126・135)を、細かく情報比較する必要はない。 Therefore, it is not necessary to make detailed information comparison of all the object information (126 and 135 in FIG. 25) from the beginning.

各場面状況検知のため(図25の182)の、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison is sufficient for detecting the situation of each scene (182 in FIG. 25).

前記細かなキーとなる物情報(図25の126・135)は、0.000025秒〜1秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の物情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。 The detailed object information (126 and 135 in FIG. 25) is captured at short intervals of 0.000025 seconds to 1 second or the like, or in the form of simultaneous progress, the average value of the scene situation, or By comparing deviation information, the average value or the reference value point that exceeds the deviation value + each α line value can be used as a starting point, and a point that falls below the reference value point at the same short time interval can be set as one goal point.

相対的変化の管理の方が、どのような映像情報にも 対応し易い。 Management of relative changes is easier to deal with any video information.

物情報(図25の126・135)の変化は、 該映像情報観察視聴者の心情変化に、少なからず影響を与える。 Changes in the object information (126 and 135 in FIG. 25) affect the emotional changes of the viewer who observes the video information.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「カメラ類撮影状況情報」(図25の127・136)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, a sumo relay program can be detected from “camera shooting state information” (127 and 136 in FIG. 25) in the image information (121 in FIG. 25).

つまり、比較計測される「単位時間の比較カメラ類撮影状況情報」(図25の127)、もしくは、「定・不定時間の比較 同時・直前・直後の同各カメラ類撮影状況情報」(図25の127)と
比較基となる「時間軸上のカメラ類撮影状況情報」(図25の136)との 情報比較で
That is, “Comparison camera shooting status information of unit time” (127 in FIG. 25) or “Comparison of fixed / indefinite time comparison shooting status information of the same camera immediately before, immediately after, and immediately after” (FIG. 25). 127) and “Camera shooting status information on time axis” (136 in FIG. 25) as a comparison basis

カメラ類撮影状況情報(図25の127・136)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出することができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Anomaly” (142 in FIG. 25) “Increase” (143 in FIG. 25) of the camera shooting status information (127, 136 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlarge” (145 in FIG. 25) “Shrink” (146 in FIG. 25) “Expand” (147 in FIG. 25) “Compression” (148 in FIG. 25) “Equivalent” (FIG. 149) “match” (150 in FIG. 25) “approximate” (151 in FIG. 25) “similar” (152 in FIG. 25) “similar” (153 in FIG. 25) “related” (154 in FIG. 25) “ “Difference” (155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distal” (FIG. 25 of 160) “Separation” (161 of FIG. 25) “Inclination” (162 of FIG. 25) “Rotation” (FIG. 25 163) “Reverse” (164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Near” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (220 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) ) “Down” (226 in FIG. 25) “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” ( 231) “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. It can be detected by “information” (170 in FIG. 25).

「時間軸上のカメラ類撮影状況情報」(図25の136)とは、
『「過去の確定カメラ類撮影状況情報」・「現在進行中のカメラ類撮影状況情報」・「未来変化予側される推定カメラ類撮影状況情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させたカメラ類撮影状況情報』の内、少なくとも1以上からなる。
“Camera shooting status information on the time axis” (136 in FIG. 25)
"" Past camera status information "," Camera status information currently in progress "," Estimated camera status information expected to change in the future " It is composed of at least one of the “camera shooting state information in which the deviation value of the class is stored or predicted and stored”.

「カメラ類撮影状況情報」は、カメラ類アアングル高・中・低位置から生まれる画像情報の構図・模様変化情報、カメラ類パンによる画像情報の構図・模様変化情報、カメラ類ズームイン・同ズームアウト行為から生まれる画像情報の構図・模様変化情報、カメラ類手持ち歩行撮影から生まれる左右に故意に揺れる画像情報の変化情報、人の肩越し・物越し等の「越しの撮影」から生まれる画像情報の構図・模様変化情報、被写体を中心とした回転撮影から生まれる画像情報の構図・模様変化情報、背景と共に 中心被写体のみを前後・左右に移動させる撮影技法から生まれる画像情報の構図・模様変化情報、別のカメラ類撮影画像情報挿入等のカット割挿入によることから生まれる画像情報の構図・模様変化情報、その他の特殊撮影技法から生まれる画像情報の構図・模様変化情報が、あり、単位時間当たりの前記変化の、比率や 回数、画像情報全体形状上の位置が、上げられる。 “Camera shooting status information” is the composition / pattern change information of the image information born from the high, middle, and low positions of the camera angles, the composition / pattern change information of the image information by the camera pan, zooming in / out the camera Composition / pattern change information of image information born from camera, change information of image information intentionally swaying from left to right born from camera-held handheld shooting, composition / pattern of image information born from "shooting over the shoulder" Change information, composition / pattern change information of image information born from rotational shooting centered on the subject, composition / pattern change information of image information born from shooting technique that moves only the center subject back and forth and left / right with the background, another camera From composition / pattern change information of image information, and other special shooting techniques There is composition / pattern change information of the image information to be born, and the ratio and frequency of the change per unit time and the position on the overall shape of the image information are raised.

前記極めて簡単な場面状況例におけるキーとなるカメラ類撮影状況情報(図25の127・136)は、各場面状況毎に異なっているため、この差異から、場面状況を特定できることになる。(図25の182)   The camera shooting status information (127 and 136 in FIG. 25), which is a key in the extremely simple scene status example, differs for each scene status, and from this difference, the scene status can be specified. (182 in FIG. 25)

前記極めて簡単な場面状況例における場合に当てはめると、極めて簡単な1例として、野球における安打・ホームラン・クロスプレイ時のカメラ類ズームイン・同アウト行為から生まれる画像情報の構図・模様変化情報、別のカメラ類撮影画像情報挿入等のカット割挿入によることから生まれる画像情報の構図、および、模様変化情報が、上げられ、これらの変化情報は、安打・ホームラン・クロスプレイが、起こらなければ、頻繁には発生しない画像情報である。つまり、場面上の観衆興奮状態と、前記カット割挿入回数は、正比例している情報関係にあるため各場面状況変化を捕える(図25の182)手だてとなる。   When applied to the case of the above simple scene situation example, as an extremely simple example, the composition of the image information, the pattern change information, The composition of the image information and the pattern change information born from the insertion of cuts such as camera image information, etc. are raised, and these changes information is frequently found if hits, home runs, and cross play do not occur. Is image information that does not occur. In other words, the audience excitement state on the scene and the number of times of the cut cut insertion are directly proportional to each other, so that each scene situation change is captured (182 in FIG. 25).

前記キーとなるカメラ類撮影状況情報(図25の127・136)は、0.000025秒〜3秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The camera photographing status information (127 and 136 in FIG. 25) as a key is captured at short intervals such as 0.000025 seconds to 3 seconds, and each scene status is determined. (182 in FIG. 25)

各場面状況確定後(図25・40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上のカメラ類撮影状況情報」(図25の136)との情報比較を行う。 After confirming the situation of each scene (182 in FIGS. 25 and 40), select which of the image information signals of the rear → front → in front → frontmost / backward ← forward ← in front ← frontmost (185 in FIG. 40), Detailed information comparison is made with “camera shooting status information on the time axis” (136 in FIG. 25).

従って、最初から、全てのカメラ類撮影状況情報(図25の127・136)を、細かく情報比較する必要はない。 Therefore, from the beginning, it is not necessary to perform detailed information comparison of all the camera shooting status information (127 and 136 in FIG. 25).

各場面状況検知(図25の182)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison is sufficient for each scene situation detection (182 in FIG. 25).

前記細かなキーとなるカメラ類撮影状況情報(図25の127・136)は、0.000025秒〜1秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 のカメラ類撮影状況情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。 The camera shooting status information (127, 136 in FIG. 25), which is a fine key, is captured at short intervals of 0.000025 seconds to 1 second or the like, or is the simultaneous progress type, and the average value of the scene status Or, in the comparison of camera situation information of deviation values, the average value or the reference value point that exceeds the deviation value + each α line value is set as the starting point, and the point below the reference value point at the same short time interval is 1 Can be a goal point.

相対的変化の管理の方が、どのような映像情報にも 対応し易い。 Management of relative changes is easier to deal with any video information.

カメラ類撮影状況情報(図25の127・136)の変化は、 該映像情報観察視聴者の心情変化に、少なからず影響を与える。 Changes in the camera shooting status information (127 and 136 in FIG. 25) affect the emotional change of the video information observation viewer.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「前記情報(音情報・文字情報・人情報・生物情報・物情報、および、カメラ類撮影状況情報)を除いた平面画像情報」(図25の128・137)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, a sumo relay program) is a flat image excluding “the above information (sound information, character information, human information, biological information, physical information, and camera shooting status information) in the image information (121 in FIG. 25). It can also be detected from “information” (128 and 137 in FIG. 25).

つまり、比較計測される「単位時間の比較 前記情報を除いた平面画像情報」(図25の128)、もしくは、「定・不定時間の比較 同時・直前・直後の同各該平面画像情報」(図25の128)と
比較基となる「時間軸上の該平面画像情報」(図25の137)との 情報比較で
In other words, “Compared unit time comparison plane image information excluding said information” (128 in FIG. 25) or “Comparison of constant / indefinite time, the same plane image information at the same time, immediately before and immediately after” ( By comparing information between 128) in FIG. 25 and “the plane image information on the time axis” (137 in FIG. 25) as a comparison base.

該平面画像情報(図25の128・137)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出することができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “ “Reduction” (144 in FIG. 25) “Enlargement” (145 in FIG. 25) “Reduction” (146 in FIG. 25) “Expansion” (147 in FIG. 25) “Compression” (148 in FIG. 25) “Equivalent” (FIG. 25 149) “match” (150 in FIG. 25) “approximate” (151 in FIG. 25) “similar” (152 in FIG. 25) “similar” (153 in FIG. 25) “related” (154 in FIG. 25) “difference” (155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distal” (FIG. 25 160) “Separation” (161 in FIG. 25) “Inclination” (162 in FIG. 25) “Rotation” (16 in FIG. 25) ) “Reverse” (164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Near” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” ( 25 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (FIG. 25 231) “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. It can be detected by “information” (170 in FIG. 25).

「時間軸上の前記情報を除いた平面画像情報」(図25の137)とは、
『「過去の確定 該前記情報を除いた平面画像情報」・「現在進行中の該前記情報を除いた平面画像情報」・「未来変化予側される推定 該前記情報を除いた平面画像情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた該前記情報を除いた平面画像情報』の内、少なくとも1以上からなる。
“Planar image information excluding the information on the time axis” (137 in FIG. 25)
“Platform image information excluding the information in the past”, “Plane image information excluding the information currently in progress”, “Estimation to be predicted in the future change Plane image information excluding the information” In addition, the average value of the approximate class, or the deviation value of the approximate class is stored or predicted and stored, and at least one or more of the planar image information excluding the information is stored.

「前記情報を除いた平面画像情報」(図25の128・137)は、本特許明細書記載の用語の説明内の『平面画像情報』の規定から前記情報(音情報・文字情報・人情報・生物情報・物情報、および、カメラ類撮影状況情報)を除いた平面画像情報を 示すものである。 The “planar image information excluding the information” (128 and 137 in FIG. 25) is the information (sound information, character information, human information) from the definition of “planar image information” in the explanation of terms described in this patent specification.・ Planar image information excluding biological information / material information and camera shooting status information).

前記極めて簡単な場面状況例における キーとなる該前記情報を除いた平面画像情(図25の128・137)は、各場面状況毎に異なっているため、この差異から、場面状況を特定できることになる。(図25の182)   Since the plane image information (128 and 137 in FIG. 25) excluding the information that is the key in the extremely simple scene situation example is different for each scene situation, the scene situation can be specified from this difference. Become. (182 in FIG. 25)

前記キーとなる該前記情報を除いた平面画像情報(図25の128・137)は、0.000025秒〜7秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The planar image information (128 and 137 in FIG. 25) excluding the information serving as the key is captured at short intervals such as 0.000025 seconds to 7 seconds, and each scene situation is determined. (182 in FIG. 25)

各場面状況確定後(図25・40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上の該情報を除いた平面画像情」(図25の137)との情報比較を行う。 After confirming the situation of each scene (182 in FIGS. 25 and 40), select which of the image information signals of the rear → front → in front → frontmost / backward ← forward ← in front ← frontmost (185 in FIG. 40), Detailed information comparison is made with “planar image information excluding the information on the time axis” (137 in FIG. 25).

従って、最初から、全ての該情報を除いた平面画像情(図25の128・137)を、細かく情報比較する必要はない。 Therefore, it is not necessary to perform detailed information comparison on the planar image information (128 and 137 in FIG. 25) excluding all the information from the beginning.

各場面状況検知のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and fast information comparison is sufficient to detect the situation of each scene.

前記細かなキーとなる該情報を除いた平面画像情(図25の128・137)(図25の128・137)は、0.000025秒〜7秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の該情報を除いた平面画像情比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。 Planar image information (128/137 in FIG. 25) (128/137 in FIG. 25) excluding the information serving as the fine key is captured at short intervals such as 0.000025 seconds to 7 seconds, or The reference value point that exceeds the average value or the deviation value + each α line value in the comparison of the plane image information that excludes the information of the average value or deviation value of the scene situation in the simultaneous progression type is the starting point. A point that falls below the reference value at the same short time interval can be set as one goal point.

相対的変化の管理の方が、どのような映像情報にも 対応し易い。 Management of relative changes is easier to deal with any video information.

該情報を除いた平面画像情(図25の128・137)の変化は、該映像情報観察視聴者の心情変化に大きく影響するためである。 This is because the change in the planar image information (128 and 137 in FIG. 25) excluding the information greatly affects the emotional change of the video information observation viewer.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「人が持つ 私的・地域的・公知的 概念認識情報」(以下、「人認識情報」と 呼称する)(図25の129・215)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, the sumo broadcast program is “personal, regional, and publicly known concept recognition information possessed by a person” (hereinafter referred to as “person recognition information”) in the image information (121 in FIG. 25) (see FIG. 25). 129/215).

つまり、比較計測される「単位時間の比較 人認識情報」(図25の129)、もしくは、「定・不定時間の比較 同時・直前・直後の同各該人認識情報」(図25の129)と
比較基となる「時間軸上の該人認識情報」(図25の215)との 情報比較で
That is, “comparison person recognition information for unit time” (129 in FIG. 25) or “comparison of constant / indefinite time at the same time, immediately before and after the same person recognition information” (129 in FIG. 25). Information comparison with “the person recognition information on the time axis” (215 in FIG. 25)

該人認識情報(図25の129・215)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出し、照合・不照合し、認識にいたることができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “ “Reduction” (144 in FIG. 25) “Enlargement” (145 in FIG. 25) “Reduction” (146 in FIG. 25) “Expansion” (147 in FIG. 25) “Compression” (148 in FIG. 25) “Equivalent” (FIG. 25 149) “match” (150 in FIG. 25) “approximate” (151 in FIG. 25) “similar” (152 in FIG. 25) “similar” (153 in FIG. 25) “related” (154 in FIG. 25) “difference” (155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distal” (FIG. 25 160) “Separation” (161 in FIG. 25) “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Near” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (FIG. 25 of 220) “High” (221 of FIG. 25) “Low” (222 of FIG. 25) “Large” (223 of FIG. 25) “Small” (224 of FIG. 25) “Up” (225 of FIG. 25) “ “Down” (226 in FIG. 25) “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (FIG. 25 231) “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
"Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more" (169 in FIG. 25), or "Process for detecting the same comparison information simultaneously. Information "(170 in FIG. 25) can be detected, verified / verified, and recognized.

「時間軸上の人認識情報」(図25の215)とは、
『「過去の確定 該人認識情報」・「現在進行中の該人認識情報」・「未来変化予側される推定 該人認識情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた該人認識情報』の内、少なくとも1以上からなる。
“Person recognition information on the time axis” (215 in FIG. 25)
““ Past Confirmed Person Recognition Information ”,“ Currently Recognized Person Recognition Information ”,“ Estimated Human Recognition Information Expected to Change in the Future ”, Average Value of the Approximate Class, or Deviation of the Approximate Class It consists of at least one or more of the “person recognition information whose value is stored or predicted and stored”.

「人認識情報」は、私的経験の常識情報・体験的常識情報・私的常識情報・地域常識情報・国別常識情報・公的経験の常識情報・体験常識情報・歴史観常識情報・公的常識情報・地域別流行常識情報・国別流行常識情報・地理的常識情報、および、公的流行常識情報から、概念を認識できるものがある。 "Personal recognition information" is common sense information for private experience, common sense information for experience, private common sense information, regional common sense information, common sense information for each country, common sense information for public experience, common sense information for experience, common sense information for history, public information Common sense information, regional epidemic common sense information, country epidemic common sense information, geographical common sense information, and public epidemic common sense information, there are those that can recognize the concept.

「前記各常識情報」とは、極めて簡単な例として、人・物・設備・生物・男・女・子供・老人・中年、等の各構成要素情報・各構成要因が、映像情報上の、設定場面状況上で、
1、時間経過上で、ある程度 該各要素情報・各構成要因情報の動きや流れが、定まってい
るパターンであること。
2、空間上で、ある程度 該各要素情報・各構成要因情報の各組み合わせ・同重ね合わせ、お
よび、同構成の仕方・同方法の各固まり概念・同集合概念、および、同集積概念が、ある
程度定まっているパターンであること を指す。
“Each common sense information” is a very simple example. Each component information such as people, things, equipment, organisms, men, women, children, the elderly, middle-aged, etc. In the setting scene situation,
1. The movement and flow of each element information and each component information should be fixed to some extent over time.
2. To some extent on the space, each element information / combination factor information combination / same superposition, and how the same configuration / each set concept / same set concept / same concept Indicates that the pattern is fixed.

前記極めて簡単な場面状況例における場合に当てはめると、前記1号は、サッカー・野球における試合運行上の運行上の試合ルール、得点 直前・中・直後時、および、同近似状況時の観客の動きや歓声・得点 直前・中・直後時、および、同近似状況時のカメラ類カット割挿入状況、得点 直前・中・直後時、および、同近似状況時のアナウンサーの声、および、バックグランド音楽が、上げられる。   When applied to the case of the above-mentioned very simple scene situation, the above No. 1 is the game rules on the operation of the game in soccer / baseball, the movement of the spectator immediately before, during and after the score, and in the same situation And cheers / scores The camera cuts are inserted immediately before, during, and immediately after, and in the same situation, the voice of the announcer, and background music immediately before, during, and after the score Raised.

前記極めて簡単な場面状況例における場合に当てはめると、前記2号は、サッカー・野球における試合開始上の競技場の大きさ・芝生の敷き詰め形状・照明塔の形状と数・屋根の有無と形状と色・宣伝用掲示板・得点掲示板・ライン囲みの形状・各選手の服装・同帽子の有無と形状・同靴と靴下・選手人数・審判員数・ベースやゴールの形状・同大きさ・同数・同設置位置・ボールの形状・同大きさ・同数・グローブの有無、および、選手待機室等の各競技種類別規定や特徴が、上げられる。   When applied in the case of the above extremely simple scene situation, the above No. 2 is the size of the stadium at the start of the game in soccer / baseball, the lawn laid shape, the shape and number of lighting towers, the presence / absence of the roof and the shape Color / Bulletin board for promotion / Score board / Shape of line box / Each player's clothing / Hat cap / Shoe shape / Shoes and socks / Number of players / Judges / Base and goal shape / Same size / Same number / Same Rules and features for each competition type, such as the installation position, ball shape, size, number, glove presence, and player waiting room, will be raised.

前記極めて簡単な場面状況例における キーとなる該人認識情報(図25の129・215)は、各場面状況毎に異なっているため、この差異から、場面状況を特定、認識できることになる。(図25の182)   Since the person recognition information (129 and 215 in FIG. 25) as a key in the extremely simple scene situation example is different for each scene situation, the scene situation can be identified and recognized from this difference. (182 in FIG. 25)

前記キーとなる該人認識情報(図25の129・215)は、0.000025秒〜7秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The person recognition information (129, 215 in FIG. 25) serving as the key is captured at short intervals such as 0.000025 seconds to 7 seconds, and each scene situation is determined. (182 in FIG. 25)

各場面状況確定後(図40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上の該人認識情報」(図25の215)との情報比較を行う。 After confirming the situation of each scene (182 in FIG. 40), rear → forward → current → frontmost / rear ← front ← present ← frontmost image information signal (185 in FIG. 40) to be selected (185 in FIG. 40). Information comparison with the “person recognition information on the time axis” (215 in FIG. 25) is performed.

従って、最初から、全ての該人認識情報(図25の129・215)を、細かく情報比較する必要はない。 Therefore, it is not necessary to perform detailed information comparison of all the person recognition information (129 and 215 in FIG. 25) from the beginning.

各場面状況検知(図25の18)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow and fast processing information comparison for each scene situation detection (18 in FIG. 25) is sufficient.

前記細かなキーとなる該人認識情報(図25の129・215)は、0.000025秒〜7秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の該人認識情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。 The person recognition information (129, 215 in FIG. 25), which is the fine key, is captured at short intervals such as 0.000025 seconds to 7 seconds, or simultaneously, and the average value of the scene situation, Alternatively, in the comparison of human recognition information of deviation values, the average value or the reference value point that exceeds the deviation value + each α line value is the starting point, and the point that falls below the reference value point at the same short time interval is one goal point Can be.

相対的変化の管理の方が、どのような映像情報にも 対応し易い。 Management of relative changes is easier to deal with any video information.

該人認識情報(図25の129・215)の変化は、該映像情報観察視聴者の心情変化に大きく影響するためである。 This is because the change in the human recognition information (129 and 215 in FIG. 25) greatly affects the emotional change of the video information observation viewer.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「人が推定できる 私的・地域的・公知的 連想推定情報」(以下、「人推定情報」と 呼称する)(図25の212・216)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, the sumo relay program) is “personal, regional, and publicly known association estimation information that can be estimated by humans” in image information (121 in FIG. 25) (hereinafter referred to as “person estimation information”) (FIG. 25). 212, 216).

つまり、比較計測される「単位時間の比較 人推定情報」(図25の212)、もしくは、「定・不定時間の比較 同時・直前・直後の同各該人推定情報」(図25の212)と
比較基となる「時間軸上の該人推定情報」(図25の216)との 情報比較で
In other words, “Comparison estimation information of unit time” (212 in FIG. 25) or “Comparison estimation of fixed / indefinite time at the same time, immediately before and immediately after” (212 in FIG. 25). Information comparison with "the person estimation information on the time axis" (216 in FIG. 25)

該人推定情報(図25の212・216)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出し、照合、不照合し、連想し、推定に、至ることができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “ “Reduction” (144 in FIG. 25) “Enlargement” (145 in FIG. 25) “Reduction” (146 in FIG. 25) “Expansion” (147 in FIG. 25) “Compression” (148 in FIG. 25) “Equivalent” (FIG. 25 149) “Match” (150 in FIG. 25) “Approximation” (151 in FIG. 25) “Similar” (152 in FIG. 25) “Same” (153 in FIG. 25) “Relation” (154 in FIG. 25) “Difference (155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distal” (FIG. 25 160) “Separation” (161 in FIG. 25) “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Near” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (FIG. 25 of 220) “High” (221 of FIG. 25) “Low” (222 of FIG. 25) “Large” (223 of FIG. 25) “Small” (224 of FIG. 25) “Up” (225 of FIG. 25) “ “Down” (226 in FIG. 25) “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (FIG. 25 231) “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. Information ”(170 in FIG. 25) can be detected, verified, verified, associated, and estimated.

「時間軸上の人推定情報」(図25の216)とは、
『「過去の確定 該人推定情報」・「現在進行中の該人推定情報」・「未来変化予側される推定 該人推定情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた該人推定情報』の内、少なくとも1以上からなる。
"Person estimation information on the time axis" (216 in FIG. 25)
““ Past Established Person Estimated Information ”,“ Currently Estimated Person Estimated Information ”,“ Future Change Predicted Person Estimated Information ”, Average Value of the Approximate Class, or Deviation of Approximate Class It is composed of at least one or more of the person estimation information whose values are stored or predicted and stored.

「人推定情報」は、私的経験の常識情報・体験的常識情報・私的常識情報・地域常識情報・国別常識情報・公的経験の常識情報・体験常識情報・歴史観常識情報・公的常識情報・地域別流行常識情報・国別流行常識情報・地理的常識情報、および、公的流行常識情報から、連想推定できるものがある。 “People Estimated Information” refers to common-sense information for private experience, common-sense information for experience, private-sense information, regional common-sense information, common-sense information by country, common-sense information for public experience, common-sense information for experience, common-sense information for history, public information Common sense information, regional epidemic common sense information, country epidemic common sense information, geographical common sense information, and public epidemic common sense information can be associatively estimated.

「前記各常識情報」とは、極めて簡単な例として、人・物・設備・生物・男・女・子供・老人・中年、等の各構成要素情報・各構成要因が、映像情報上の、設定場面状況上で、
1、時間経過上で、ある程度 該各要素情報・各構成要因情報の動きや流れが、定まってい
るパターンであること。
2、空間上で、ある程度 該各要素情報・各構成要因情報の各組み合わせ・同重ね合わせ、お
よび、同構成の仕方・同方法の各固まり概念・同集合概念、および、同集積概念が、ある
程度定まっているパターンであること を指す。
“Each common sense information” is a very simple example. Each component information such as people, things, equipment, organisms, men, women, children, the elderly, middle-aged, etc. In the setting scene situation,
1. The movement and flow of each element information and each component information should be fixed to some extent over time.
2. To some extent on the space, each element information / combination factor information combination / same superposition, and how the same configuration / each set concept / same set concept / same concept Indicates that the pattern is fixed.

前記極めて簡単な場面状況例における場合に当てはめると、前記1号は、サッカー・野球における試合運行上の運行上の試合ルール、得点 直前・中・直後時、および、同近似状況時の観客の動きや歓声・得点 直前・中・直後時、および、同近似状況時のカメラ類カット割挿入状況、得点 直前・中・直後時、および、同近似状況時のアナウンサーの声、および、バックグランド音楽の時間的経過途中の流れから、次の展開である次の流れとしての1定の連想でき、推定される 時間的定まった流れ・同展開を、想起すことが、可能となる事が挙げられる。 When applied to the case of the above-mentioned very simple scene situation, the above No. 1 is the game rules on the operation of the game in soccer / baseball, the movement of the spectator immediately before, during and after the score, and in the same situation And cheers / scores Just before / medium / immediately, and in the same situation, the camera cuts are inserted, immediately before, during middle / immediately after the score, the voice of the announcer, and background music From the flow in the course of time, it is possible to associate a certain constant as the next flow, which is the next development, and to be able to recall the estimated flow / development that is fixed in time.

前記極めて簡単な場面状況例における場合に当てはめると、前記2号は、サッカー・野球における試合開始上の競技場の大きさ・芝生の敷き詰め形状・証明塔の形状と数・屋根の有無と形状と色・宣伝用掲示板・得点掲示板・ライン囲みの形状・各選手の服装・同帽子の有無と形状・同靴と靴下・選手人数・審判員数・ベースやゴールの形状・同大きさ・同数・同設置位置・ボールの形状・同大きさ・同数・グローブの有無、および、選手待機室等の各競技種類別規定や特徴の各概念各連結事項途中経過の流れから、次の連結事項展開である次の関連連結事項としての1定の連結連鎖の連想ができ、同推定される 各概念事項連結方法の定まった締結方法のパターン・同締結展開パターンを、想起すことが、可能となる事が挙げられる。   When applied to the case of the above-mentioned very simple scene situation, the No. 2 is the size of the stadium at the start of the game in soccer / baseball, the lawn laying shape, the shape and number of the proof tower, the presence / absence of the roof and the shape Color / Bulletin board for promotion / Score board / Shape of line box / Each player's clothing / Hat cap / Shoe shape / Shoes and socks / Number of players / Judges / Base and goal shape / Same size / Same number / Same From the installation position, ball shape, same size, same number, presence / absence of gloves, rules for each type of competition such as player waiting room, etc. It is possible to associate a fixed connection chain as the next related connection item, and it is possible to recall the fastening method pattern and the fastening development pattern in which each of the estimated concept item connection methods is fixed. Can be mentioned.

前記極めて簡単な場面状況例における キーとなる該人推定情報(図25の212・216)は、各場面状況毎に異なっているため、この差異から、場面状況を特定できることになる。(図25の182)   The person estimation information (212 and 216 in FIG. 25), which is a key in the extremely simple scene situation example, is different for each scene situation, and the scene situation can be specified from this difference. (182 in FIG. 25)

前記キーとなる該人推定情報(図25の212・216)は、0.000025秒〜7秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The person estimation information (212 and 216 in FIG. 25) serving as the key is captured at short intervals such as 0.000025 seconds to 7 seconds, and each scene situation is determined. (182 in FIG. 25)

各場面状況確定後(図40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上の該人推定情報」(図25の216)との情報比較を行う。 After confirming the situation of each scene (182 in FIG. 40), rear → forward → current → frontmost / rear ← front ← present ← frontmost image information signal (185 in FIG. 40) to be selected (185 in FIG. 40). The information is compared with the “person estimated information on the time axis” (216 in FIG. 25).

従って、最初から、全ての該人推定情報(図25の212・216)を、細かく情報比較する必要はない。 Therefore, it is not necessary to perform detailed information comparison of all the person estimation information (212 and 216 in FIG. 25) from the beginning.

各場面状況検知(図25の182)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison is sufficient for each scene situation detection (182 in FIG. 25).

前記細かなキーとなる該人推定情報(図25の212・216)は、0.000025秒〜7秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の該人推定情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。 The person estimation information (212 and 216 in FIG. 25), which is the fine key, is captured at short intervals such as 0.000025 seconds to 7 seconds, or simultaneously, and the average value of the scene situation, Or, in the comparison of the person estimated information of deviation value, the average value, or the reference value point that exceeds the deviation value + each α line value is the starting point, and the point that falls below the reference value point at the same short time interval is one goal point Can be.

相対的変化の管理の方が、どのような映像情報にも 対応し易い。 Management of relative changes is easier to deal with any video information.

該人推定情報(図25の212・216)の変化は、該映像情報観察視聴者の心情変化に大きく影響するためである。 This is because the change of the person estimation information (212 and 216 in FIG. 25) greatly affects the emotional change of the video information observation viewer.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」(以下、「制御類情報」と 呼称する)(図25の213・217)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, the sumo relay program) is “Processing information for any of the control units, control devices, control devices, and control systems” in the image information (121 in FIG. 25) (hereinafter referred to as “control class information”). Yes) (213 and 217 in FIG. 25).

つまり、比較計測される「単位時間の比較 制御類情報」(図25の213)、もしくは、「定・不定時間の比較 同時・直前・直後の同各該制御類情報」(図25の213)と
比較基となる「時間軸上の該制御類情報」(図25の217)との 情報比較で
In other words, “Comparison control information of unit time” (213 in FIG. 25) or “Comparison of constant / indefinite time, control information at the same time, immediately before and immediately after” (213 in FIG. 25). And “Comparison information on time axis” (217 in FIG. 25)

該制御類情報(図25の213・217)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出し、制御類情報を、検出することができる。
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “ “Reduction” (144 in FIG. 25) “Enlargement” (145 in FIG. 25) “Reduction” (146 in FIG. 25) “Expansion” (147 in FIG. 25) “Compression” (148 in FIG. 25) “Equivalent” (FIG. 25 149) “match” (150 in FIG. 25) “approximate” (151 in FIG. 25) “similar” (152 in FIG. 25) “similar” (153 in FIG. 25) “related” (154 in FIG. 25) “difference” (155 in FIG. 25) “Intersection” (156 in FIG. 25) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distal” (FIG. 25 160) “Separation” (161 in FIG. 25) “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Near” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (FIG. 25 of 220) “High” (221 of FIG. 25) “Low” (222 of FIG. 25) “Large” (223 of FIG. 25) “Small” (224 of FIG. 25) “Up” (225 of FIG. 25) “ “Down” (226 in FIG. 25) “Right” (227 in FIG. 25) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (FIG. 25 231) “East” (232 in FIG. 25) and “Unrelated” (168 in FIG. 25),
"Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more" (169 in FIG. 25), or "Process for detecting the same comparison information simultaneously. Information ”(170 in FIG. 25) can be detected and control class information can be detected.

「時間軸上の制御類情報」(図25の217)とは、
「過去の確定 該制御類情報」・「現在進行中の該制御類情報」・「未来変化予側される推定 該制御類情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた該制御類情報』の内、少なくとも1以上からなる。
"Control information on the time axis" (217 in FIG. 25) is
“Past decision The control class information”, “Current control class information”, “Estimated future control class control class information”, the average value of the approximate class, or the deviation value of the approximate class Is stored or predicted and stored in the control class information ”.

「制御類情報」は、本特許明細書記載の用語の説明内の『平面画像情報』の規定内の情報制御情報を 示し、同用語の説明内の『処理情報』内の制御規定を指す、前記範疇内での前記同用語の説明内の『5感覚情報』の規定で、制御を必要とするものを指す。 `` Control class information '' indicates information control information in the definition of `` planar image information '' in the explanation of terms described in this patent specification, and indicates control regulations in the `` processing information '' in the explanation of the terms. The term “5 sensory information” in the explanation of the same term in the category refers to the one requiring control.

前記極めて簡単な空間情報場面状況例におけるキーとなる該制御類情報は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。 Since the control class information which is a key in the extremely simple example of the spatial information scene situation is different for each spatial information scene situation, the spatial information scene situation can be specified from this difference.

前記キーとなる該制御類情報(図25の213・217)は、0.000025秒〜3秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The control information (213 and 217 in FIG. 25) serving as the key is captured at short intervals such as 0.000025 seconds to 3 seconds, and each scene situation is determined. (182 in FIG. 25)

各場面状況確定後(図40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上の該制御類情報」(図25の213・217)との情報比較を行う。 After confirming the situation of each scene (182 in FIG. 40), rear → forward → current → frontmost / rear ← front ← present ← frontmost image information signal (185 in FIG. 40) to be selected (185 in FIG. 40). The information is compared with the control class information on the time axis (213 and 217 in FIG. 25).

従って、最初から、全ての該制御類情報(図25の213・217)を、細かく情報比較する必要はない。 Therefore, it is not necessary to perform detailed information comparison of all the control class information (213 and 217 in FIG. 25) from the beginning.

各場面状況検知(図25の182)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison is sufficient for each scene situation detection (182 in FIG. 25).

前記細かなキーとなる該制御類情報(図25の213・217)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の該制御類情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。 The control information (213 and 217 in FIG. 25), which is the fine key, is captured at short intervals of 0.000025 seconds to 3 seconds or the like, or is the simultaneous progress type, the average value of the scene situation, Or, in the control information comparison of deviation value, the average value or the deviation value + the reference value point that exceeds each α line value is the starting point, and the point that falls below the reference value point at the same short time interval is one goal point Can be.

相対的変化の管理の方が、どのような映像情報にも 対応し易い。 Management of relative changes is easier to deal with any video information.

該制御類情報(図25の213・217)の変化は、該映像情報観察視聴者の心情変化に大きく影響するためである。 This is because the change in the control information (213 and 217 in FIG. 25) greatly affects the emotional change of the video information observation viewer.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、画像情報内(図25の121)の「コンピュータプログラム言語情報の処理情報」(以下、「言語情報」と 呼称する)(図25の214・218)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, a sumo relay program can also be detected from “processing information of computer program language information” (hereinafter referred to as “language information”) (214 and 218 in FIG. 25) in the image information (121 in FIG. 25). .

つまり、比較計測される「単位時間の比較 言語情報」(図25の214)、もしくは、「定・不定時間の比較 同時・直前・直後の同各該言語情報」(図25の214)と
比較基となる「時間軸上の該言語情報」(図25の218)との 情報比較で
該言語情報(図25の214・218)の「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、検出し、言語情報を、検出することができる。
That is, it is compared with “Comparison language information of unit time” (214 in FIG. 25) or “Comparison information of constant / indefinite time at the same time, immediately before and immediately after” (214 in FIG. 25). By comparing the information with the “language information on the time axis” (218 in FIG. 25), the “change” (140 in FIG. 25) “repetition” (FIG. 25) of the language information (214 and 218 in FIG. 25) 141) “abnormal” (142 in FIG. 25) “increase” (143 in FIG. 25) “decrease” (144 in FIG. 25) “enlarge” (145 in FIG. 25) “shrink” (146 in FIG. 25) “extension” (147 in FIG. 25) “Compression” (148 in FIG. 25) “Equivalent” (149 in FIG. 25) “Match” (150 in FIG. 25) “Approximation” (151 in FIG. 25) “Similarity” (in FIG. 25) 152) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” (FIG. 25 of 155) “crossing” (156 of FIG. 25) “multilayer” (157 of FIG. 25) “proximity” (158 of FIG. 25) “contact” (159 of FIG. 25) “distance” (160 of FIG. 25) “Separation” (161 in FIG. 25) “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Breakthrough” (165 in FIG. 25) “Now” (FIG. 25 166) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (220 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “ “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (227 in FIG. 25) “Left” (FIG. 25 228) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) “East” (2 in FIG. 25) 2), and, among the "irrelevant" (168 in FIG. 25),
"Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more" (169 in FIG. 25), or "Process for detecting the same comparison information simultaneously. Information ”(170 in FIG. 25) can be detected and language information can be detected.

「時間軸上の言語情報」(図25の218)とは、
『「過去の確定 言語情報」・「現在進行中の該言語情報」・「未来変化予側される推定 該言語情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた該言語情報』の内、少なくとも1以上からなる。
“Language information on the time axis” (218 in FIG. 25) is
“Memorize“ Last language information ”,“ Language information currently in progress ”,“ Estimated language information expected to change in the future ”, average value of similar class, or deviation value of similar class, Or, it includes at least one of the language information predicted and stored.

「言語情報」は、本特許明細書記載の用語の説明内の『平面画像情報』の規定内の「言語情報」を 示し、同用語の説明内の『処理情報』内の処理規定を指す、前記範疇内での前記同用語の説明内の『5感覚情報』の規定で、「言語情報」を必要とするものを指す。 “Language information” indicates “Language information” in the definition of “Plane image information” in the explanation of terms described in this patent specification, and indicates the processing regulations in “Processing information” in the explanation of the terms. The term “5 sensory information” in the explanation of the same term in the category refers to the one requiring “language information”.

前記極めて簡単な空間情報場面状況例におけるキーとなる該言語情報(図25の214・218)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図25の182) The language information (214 and 218 in FIG. 25) that is a key in the extremely simple example of the spatial information scene situation is different for each spatial information scene situation, so that the spatial information scene situation can be specified from this difference. Become. (182 in FIG. 25)

前記キーとなる該言語情報(図25の214・218)は、0.000025秒〜1秒等の短時間間隔で捕えられ各場面状況が、確定する。(図25の182) The language information (214 and 218 in FIG. 25) serving as the key is captured at short intervals such as 0.000025 seconds to 1 second, and each scene situation is determined. (182 in FIG. 25)

各場面状況確定後(図40の182)、後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号のどれを選択する(図40の185)か、更に、細かく「時間軸上の該言語情報」との情報比較を行う。 After confirming the situation of each scene (182 in FIG. 40), rear → forward → current → frontmost / rear ← front ← present ← frontmost image information signal (185 in FIG. 40) to be selected (185 in FIG. 40). The information is compared with the language information on the time axis.

従って、最初から、全ての該言語情報(図25の214・218)を、細かく情報比較する必要はない。 Therefore, it is not necessary to compare all the language information (214 and 218 in FIG. 25) from the beginning.

各場面状況検知(図25の182)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison is sufficient for each scene situation detection (182 in FIG. 25).

前記細かなキーとなる該言語情報(図25の214・218)は、0.000025秒〜1秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その場面状況の平均値、もしくは、偏差値 の該言語情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。 The linguistic information (214 and 218 in FIG. 25) serving as the fine key is captured at short intervals of 0.000025 seconds to 1 second or the like, or the average value of the scene situation in a simultaneous progression, or By comparing the linguistic information of the deviation value, the average value or the reference value point that exceeds the deviation value + each α line value can be used as a starting point, and a point that falls below the reference value point at the same short time interval can be set as one goal point. .

相対的変化の管理の方が、どのような映像情報にも 対応し易い。 Management of relative changes is easier to deal with any video information.

該言語情報(図25の214・218)の変化は、該映像情報観察視聴者の心情変化に大きく影響するためである。 This is because the change in the linguistic information (214 and 218 in FIG. 25) greatly affects the emotional change of the video information observation viewer.

「映像情報内容から判断できる空間情報提示」(図25の182)があっても後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号が無い場合(極めて簡単な1例として相撲中継番組)は、前記述べた各情報の「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図25の130・139)からも検知できる。 Even if there is “spatial information presentation that can be judged from the contents of the video information” (182 in FIG. 25), there is no image information signal in the rear → front → in front → frontmost / backward ← frontward → frontal ← frontmost (very simple 1 As an example, the sumo relay program) is also based on the above-mentioned information “information consisting of one or more, one or more various combinations, or one or more various superpositions” (130 and 139 in FIG. 25). Can be detected.

前段記載の『前記述べた各情報の「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」(図25の130・139)からも検知』を検出し処理実行』した後、もしくは、同時進行での空間情報提示には、「後方→前方→目前→最目前・後方←前方←目前←最目前の画像情報信号」以外で、 "Detection from" information consisting of one or more, one or more various combinations, or one or more various superpositions "(130 and 139 in FIG. 25) of each of the information described above is detected. After executing `` Processing '', or to present spatial information simultaneously, other than `` Rear → Forward → Immediate → Nearest / Rear ← Forward ← Immediate ← Image information signal at the very front,

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な両形融合画像情報の処理」・(図40の171) “Recognizing private, regional, and publicly known information concepts and then processing optimal bimorphic image information associated with them” (171 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な両組融合画像情報の処理」・(図40の172) “Recognizing private, regional, and publicly known information concepts, and then processing the optimal combination image information that is associated and estimated from it” (172 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な両形組融合画像情報の処理」・(図40の173) “Recognizing private, regional, and publicly known information concepts, and then processing optimal bimorphic fusion image information associated with them” (173 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な両離輻輳融合画像情報の処理」・(図40の174) “Recognizing private, regional, and publicly known information concepts and then associating and inferring the optimal information of both deconvergence fusion images” (174 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な画像情報の処理」・(図40の175) “Recognizing private, regional, and publicly known information concepts, and then processing optimal image information associated with them” (175 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な視覚情報の処理」・(図40の234) “Recognizing private, regional, and publicly known information concepts and then processing optimal visual information associated with them” (234 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な聴覚情報の処理」・(図40の176) “Recognizing private, regional, and publicly known information concepts, and then processing optimal auditory information associated with them” (176 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な嗅覚情報の処理」・(図40の177) “Recognizing private / regional / public information concepts and then processing optimal olfactory information associated with them” (177 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な触覚情報の処理」・(図40の178) “Recognizing private / regional / public information concepts and then processing optimal tactile information associated with them” (178 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な味覚情報の処理」・(図40の179) “Recognizing private / regional / public information concepts and then processing optimal taste information associated with them” (179 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適なカメラ類撮影状況情報の処理」・(図40の235) “Recognizing private, regional, and publicly known information concepts, and then processing optimal camera shooting situation information associated with the information” (FIG. 40, 235)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な人が認識できる 私的・地域的・公知的 概念認識情報の処理」・(図40の236) "Recognizing private, regional, and publicly known information concepts, and then processing the private, regional, and publicly known concept recognition information that can be recognized by the best person associated with the information" (Fig. 40, 236)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な人が推定できる 私的・地域的・公知的 連想推定情報の処理」・(図40の237) “Recognizing private / regional / publicly known information concepts, and then allowing the best person to estimate associations from them” (private / regional / publicly associated association information processing) ”(237 in FIG. 40)

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理」(図40の238)、 および、 “Processing of processing information for any of the optimal control units, control devices, control devices, and control systems that are associated and estimated from the recognition of private / regional / public information concepts” (FIG. 40) 238), and

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適なコンピュータプログラム言語情報の処理」(図40の239)の内、 “Recognizing private, regional, and publicly known information concepts and then associating and inferring optimal computer program language information” (239 in FIG. 40),

「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適ないずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報」(図40の180)を 求められる場面状況が、存在する。 “After recognizing a private / regional / public information concept, a process consisting of one or more optimum combinations, one or more combinations, or one or more various superpositions estimated from that There are scene situations for which “information” (180 in FIG. 40) is required.

極めて簡単な例として、映画用映像情報や子供向け(「漫画」等のタイトル文字)映像情報や、老人向け(「四国巡礼」等のタイトル文字)映像情報内容から、要求される明るさ・色合い・鮮やかさ・聞き易い音量・聞き易い音声速度の自動伸張調整、、その他 本特許明細書記載の「用語の説明」内の『5感覚情報』で、前記各映像情報内容に関するもの。 As a very simple example, the required brightness and color from movie video information, video information for children (title characters such as “Manga”) and video information for elderly people (title characters such as “Shikoku Pilgrimage”) are required. -Automatic extension adjustment of vividness, easy-to-hear volume, easy-to-hear sound speed, etc. "5 sense information" in "Explanation of terms" described in this patent specification relates to the contents of each video information.

個人的ペット写真映像情報 懐古再現時 のペットの泣き声・甘え声・舐められ感・呼吸音・足音・引っ掻き感と音・体重感・毛並み下の骨格内臓柔軟触感・呼吸に伴う胸の膨張と萎縮・体温感の再現・心臓鼓動音、その他本特許明細書記載の「用語の説明」内の『5感覚情報』で、ペットに関するもの。 Personal pet photo video information Pet's cry, sweet voice, licked feeling, breathing sound, footsteps, scratching and sound, weight feeling, skeletal visceral flexible touch under the fur, breast expansion and atrophy associated with breathing・ Reproduction of body temperature sensation ・ Heart beat sound, etc. “5 Sensory information” in “Explanation of terms” described in this patent specification, related to pets.

個人的卒業写真映像情報回顧再現時の校歌・啜り泣き声・卒業用流行歌の再現供給、その他本特許明細書記載の「用語の説明」内の『5感覚情報』で、卒業に関するもの。 Personalized graduation photo video information Retrospective reproduction of school songs, crying voices, popular graduation songs for graduation, and other “5 sensory information” in “Explanation of terms” described in this patent specification, related to graduation.

コマーシャルメッセージの新商品名文字・新商品名音・新商品映像情報と 連動した新コーヒーの香り・新香水の香り放出・噴霧再現、その他 本特許明細書記載の「用語の説明」内の『5感覚情報』で、コマーシャルメッセージに関するもの。 New product name text, new product name sound, new product video information in commercial messages New coffee scent, new perfume scent release, spray reproduction, etc. “5. Explanation of terms” in this patent specification Sensory information ”on commercial messages.

冒険・恋愛・ファンタジー映像情報内容から、要求される、寒さ・暑さ・湿気・乾燥・風力・傾き圧迫・運転時の速度アップによる重力圧・殴打痛・重傷を受けた痛み・傷口の痛み・被弾痛・銃弾発射時の銃衝撃圧・縛られた時や抱擁時の上体圧迫、握手時の手の圧迫、キスの口への接触圧、その他 本特許明細書記載の「用語の説明」内の『5感覚情報』で、冒険・恋愛・ファンタジー映像情報内容に関するもの。 From the content of adventure, romance, fantasy video information, required cold, heat, humidity, dryness, wind power, tilt pressure, gravity pressure due to increased speed during driving, striking pain, severely injured pain, wound pain Bullet pain, gun impact pressure when shooting bullets, upper body pressure when tied or hugged, hand pressure when shaking hands, contact pressure to mouth of kiss, etc. `` Explanation of terms '' described in this patent specification "5 Sense Information" in, related to adventure, love, fantasy video information content.

自然環境映像情報内容から、要求される、寒さ・暑さ・湿気・乾燥・風力・森林浴によるキトンチツッド香・花香の吹き付け、キトンチツッド・花香入り液体の超音波方式噴霧、その他 本特許明細書記載の「用語の説明」内の『5感覚情報』で、自然環境映像情報内容に関するもの。 Necessary cold, heat, humidity, drying, wind power, spraying of fragrant scent and flower incense by forest bath, ultrasonic spraying of kitten chit and scented liquid, etc. “5 Sensory Information” in “Explanation of Terms”, which relates to the contents of natural environment video information

料理番組映像情報内容から、要求される 味香再現のための 味香カプセル・味香ガム果粒・ペレット・丸薬型味香粒・ 頻度需要の高い蟹味や霜降り牛味や世界3大珍味香ガム果粒の口元への供給。 From the contents of the cooking program video information, the required flavors of miso capsules, miso gum granules, pellets, pill-type miso grains, high-demanding flavors and marbled beef flavors, and the world's three most popular delicacy gum granules Supply to the mouth.

料理番組映像情報内容から、要求される クッキー甘臭や焼き鳥焼き芳香などの料理特有香化再現のため、顔への香り放出供給、その他 本特許明細書記載の「用語の説明」内の『5感覚情報』で、料理番組映像情報内容に関するもの。 In order to reproduce the fragrance specific to cooking such as cookie sweet smell and yakitori baked fragrance required from the contents of cooking program video information, supply fragrance to the face, etc. “5” in “Explanation of Terms” described in this patent specification "Sensual information" related to cooking program video information content.

スポーツ番組映像情報内容から、要求される 感動シーンの撮影カメラ類位置の別角度からの撮影カメラ類情報への切替え・同クローズアップ撮影カメラ類情報への切替え・同移動体追尾撮影カメラ類情報への切替え・同停止体追尾撮影カメラ類情報への切替え・同スローモーションでの同場面再現、選手のデータ情報のカット割り挿入、バットグリップ型音・振動・圧迫機器へのバット振り・ヒット・ホームラン時での、音・振動・圧迫などの制御再現、差込式グローブ型音・振動・圧迫機器へのキャッチャー受球時での、音・振動・圧迫などの制御再現。 From sports program video information content, to switching to shooting camera information from a different angle of the required shooting camera position of the moving scene, switching to close-up shooting camera information, to moving body tracking shooting camera information・ Switching to the same body tracking camera information ・ Reproducing the same scene in the same slow motion, inserting cut data into the player's data information, bat-grip sound, vibration, bat swinging to the compression device, hit, home run Control reproduction of sound, vibration, compression, etc. at time, control reproduction of sound, vibration, compression, etc. when catcher receives a plug-in glove-type sound, vibration, compression device.

前記「私的・地域的・公知的情報概念を認識した後、そこから連想推定される最適な各情報の処理」(図40の236)は、主に人が、5感覚情報(視覚・聴覚・嗅覚・味覚・触覚)を概念認識し、推定連想し、処理選択し、処理実行し、処理再現になるため、
「人情報」(図25の124・133)が、その中心柱となり、中心柱の「人情報」(図25の124・133)に他の
『「音情報」(図25の122・131)・「人情報」(図25の124・133)・「生物情報」(図25の125・134)・「物情報」(図25の126・135)・「文字情報」(図25の123・132)・「カメラ類撮影状況情報」(図25の127・136)・「前記情報を除いた平面画像情報」(図25の128・137)・「人が持つ 私的・地域的・公知的 概念認識情報」(図25の129・215)・「人が持つ 私的・地域的・公知的 連想推定情報」(図25の130・216)・「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」(図25の213・217)、および、「コンピュータプログラム言語情報の処理情報」(図25の214・218)の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報』(図25の130・139)が、時間的・空間的に どのように関係して行くかで、
The above-mentioned “processing of each piece of information optimally associatively estimated after recognizing a private / regional / public information concept” (236 in FIG. 40)・ Conceptual recognition of olfaction, taste, and touch), associative estimation, process selection, process execution, and process reproduction.
“Human information” (124, 133 in FIG. 25) becomes the central pillar, and other ““ Sound information ”(122, 131 in FIG. 25) is added to“ Human information ”(124, 133 in FIG. 25) of the central pillar. "Personal information" (124, 133 in Fig. 25) "Biological information" (125, 134 in Fig. 25)-"Material information" (126, 135 in Fig. 25)-"Character information" (123 in Fig. 25) 132) ・ “Camera shooting status information” (127 and 136 in FIG. 25) ・ “Plane image information excluding the above information” (128 and 137 in FIG. 25) ・ “Private, local, and publicly owned by humans” "Concept recognition information" (129, 215 in Fig. 25), "Private, regional, and publicly known associative estimation information" (130, 216 in Fig. 25), "Control section, control devices, control equipment, Any processing information of the control system "(213 and 217 in FIG. 25), and 25, “1 or more, various combinations of one or more of the above, or one or more of various superposition information” (130 of FIG. 25). 139) is related in terms of time and space,

「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)を検出することができ、更に、細かく「場面状況確定」(図25の182)が、可能となり、次の段階である「最適の5感覚の刺激処理情報を 逐次選択し(図40の185)、最適の5感覚の刺激時期に、最適の5感覚の刺激時間だけ、最適の5感覚の刺激情報処理部に、最適の5感覚の刺激強弱のレベルなどの情報処理部運用プログラム、最適の5感覚の刺激情報処理部修正プログラムを伴って、最適の5感覚の刺激実行処理(図40の171〜179・234〜239)、もしくは、1以上からなる最適の5感覚の刺激再実行処理(図40の180)を 行うこと」が、可能となる。(図40の187)
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlarge” (FIG. 25 of 145) “reduction” (146 of FIG. 25) “expansion” (147 of FIG. 25) “compression” (148 of FIG. 25) “equivalent” (149 of FIG. 25) “match” (150 of FIG. 25) “ “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” (155 in FIG. 25) “Intersection” (FIG. 25 156) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) “Separation” (161 in FIG. 25) “ “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Break” 165 in FIG. 25) “Now” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (220 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (FIG. 25 227) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) “East” (232 in FIG. 25), And “unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. “Information” (170 in FIG. 25) can be detected, and “situation determination” (182 in FIG. 25) can be further finely performed. Select (185 in FIG. 40), information on the optimal five-sensory stimulation information processing unit for the optimal five-sensory stimulation information for the optimal five-sensory stimulation time, and information on the optimal five-sensory stimulation intensity level. Optimal 5 sensory stimulus execution processing (171 to 179 and 234 to 239 in FIG. 40), or optimal 5 sensory operation execution program (optimal 5 sensory stimulus information processing unit correction program) Sensory stab It is possible to perform the rapid re-execution process (180 in FIG. 40). (187 in FIG. 40)

前記「5感覚」とは、本特許明細書記載の「用語の説明」内の『5感覚情報』の規定である事は、言うまでもない。 Needless to say, the “5 senses” is defined as “5 sense information” in “Explanation of Terms” described in this patent specification.

5感覚(視覚・聴覚・嗅覚・味覚・触覚)を、人が、認識する感応場所が、定まっている。 Sensitive places for people to recognize five senses (visual, auditory, olfactory, gustatory, and tactile) are fixed.

視覚=人情報の内、顔情報の目のあたり、もしくは、人情報観察画像表示面、   Visual = human information, face information eyes or human information observation image display surface,

聴覚=人情報の内、顔情報の耳のあたり、もしくは、人情報存在空間全体、   Hearing = Human information, around the ear of face information, or the entire human information existence space,

嗅覚=人情報の内、顔情報の鼻のあたり、 Olfaction = human information, around the nose of facial information,

味覚=人情報の内、顔情報の口内、喉のあたり、 Taste = human information, face information in mouth, throat,

触覚=人情報の内、顔情報の唇・頬のあたりと 手情報・足情報・各部位情報、
以上の「人の感応場所」に、
Tactile sense = human information, lip and cheek area of face information, hand information, foot information, each part information,
In the above “People's Sensitive Places”

他の『「音情報」(図25の122・131)・「人情報」(図25の124・133)・「生物情報」(図25の125・134)・「物情報」(図25の126・135)・「文字情報」(図25の123・132)・「カメラ類撮影状況情報」(図25の127・136)・「前記情報を除いた平面画像情報」(図25の128・137)・「人が持つ 私的・地域的・公知的 概念認識情報」(図25の129・215)・「人が持つ 私的・地域的・公知的 連想推定情報」(図25の130・216)・「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」(図25の213・217)、および、「コンピュータプログラム言語情報の処理情報」(図25の214・218)の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報』(図25の130・139)が、時間的・空間的に、どの様に、関わるかで、どの様な、5感覚が、刺激感応(刺激箇所・刺激時期・刺激時間・刺激強弱レベル)しているかが、概念認識・連想推定され、理解でき、再現すべき最適の5感覚の刺激処理情報を 逐次選択し(図40の185)、最適の5感覚の刺激時期に、最適の5感覚の刺激時間だけ、最適の5感覚の刺激情報処理部に、最適の5感覚の刺激強弱のレベルなどの情報処理部運用プログラム、最適の5感覚の刺激情報処理部修正プログラムを伴って、最適の5感覚の刺激実行処理(図40の171〜179・234〜239)、もしくは、1以上からなる最適の5感覚の刺激再実行処理(図40の180)を 行うことが選択・決定され、逐次実行される。 Other ““ sound information ”(122, 131 in FIG. 25),“ human information ”(124, 133 in FIG. 25),“ biological information ”(125, 134 in FIG. 25),“ object information ”(in FIG. 25) 126, 135), “text information” (123, 132 in FIG. 25), “camera shooting status information” (127, 136 in FIG. 25), “planar image information excluding the information” (128 in FIG. 25) 137) “People's private / regional / public concept recognition information” (129, 215 in FIG. 25) “People's private / regional / public associative estimation information” (130 in FIG. 25) 216) “Processing information of any of control units, control devices, control devices, and control systems” (213 and 217 in FIG. 25) and “Processing information of computer program language information” (214 in FIG. 25)・ Of 218), 1 or more, 1 or more The combination or combination of one or more of the various superposition information ”(130 and 139 in FIG. 25) is related to how and in terms of time and space. (Stimulus location, stimulus time, stimulus time, stimulus intensity level) is recognized, conceptually associatively estimated, can be understood, and the optimal five sensory stimulus processing information to be reproduced is sequentially selected (185 in FIG. 40), The optimal five-sensory stimulation time, the optimal five-sensory stimulus information processing unit, the optimal five-sensory stimulus information level, the optimal five-sensory stimulus information level, and the optimal five-sensory stimulus time. The optimal five-sensory stimulus execution process (171 to 179 and 234 to 239 in FIG. 40) or the optimal five-sensory stimulus re-execution process (FIG. 40) including one or more stimulus information processing unit correction programs. 180) There is selected and determined is sequentially executed.

極めて簡単な、例を 示すと、「カップ」形状の物情報(図25の126・135)が、「指」形状の人情報(図25の124・133)と連動して、顔情報(図25の124・133)の「口元」に「交差」(図25の156)と上へ「傾斜」(図25の162)したことにより、味覚・嗅覚・指の甲・人指し指の内側・唇の触覚が、感応刺激されていることが、概念認識・連想推定され(図25の130・216)、理解認識(図25の129・215)できる。同時に、指の甲・人指し指の内側・唇の触覚には、液体が入ったカップの重さ減量変化圧迫感・温かさ感・人指し指への液体揺れ感・唇への温かさ感とカップの重さ減量変化圧迫感の触覚が、刺激感応していることが、概念認識(図25の129・215)・連想推定(図25の130・216)され、理解認識され、指の甲・人指し指の内側・唇への重さ減量変化圧迫感・温かさ感、および、指甲の液体揺れ感の推定再現が、選択(図40の185)され、実行再現(図40の178)される。 To give a very simple example, the object information in the “cup” shape (126 and 135 in FIG. 25) is linked to the human information in the “finger” shape (124 and 133 in FIG. 25) and the face information (see FIG. 25). 25 ”124 ・ 133)“ Cross ”(156 in FIG. 25) and“ Inclined ”(162 in FIG. 25),“ Taste ”, olfaction, back of finger, inside of index finger, inside of lips It is possible to recognize that the tactile sensation is sensitively stimulated by concept recognition / association estimation (130 and 216 in FIG. 25) and recognition (129 and 215 in FIG. 25). At the same time, the touch of the back of the finger, the inside of the index finger, and the sense of lips, the weight reduction change of the cup containing liquid pressure, warmth, the feeling of liquid shaking on the index finger, the feeling of warmth on the lips, and the weight loss of the cup The tactile sensation of the change pressure sense is stimulus-sensitive. Concept recognition (129, 215 in FIG. 25), association estimation (130, 216 in FIG. 25), understanding and recognition, the back of the finger, the inside of the index finger, The estimated reproduction of the weight loss change pressure feeling / warm feeling on the lips and the liquid shaking feeling of the finger shell is selected (185 in FIG. 40) and reproduced (178 in FIG. 40).

次に、何の、味と香り(図40の179・177)かは、その場面状況(図25の121) 前後に出てくる「コーヒーでもどう」・「いいコーヒーだ」の音情報(図25の122・131)、「コーヒー」の文字情報(図25の123・132)、「コーヒー瓶」・「クリーム瓶」・「砂糖瓶」「スプーン」「スプーン上のコーヒー粉」「スプーン上のクリーム粉」「スプーン上の砂糖粉」「スプーン上の角砂糖」「液体コーヒーの色」「カップから立ち昇る湯気」の物情報(図25の126・135)、「スプーンで掻き混ぜるしぐさ」の人情報(図25の124・133)から、人の味覚・嗅覚には、コーヒーの液体が、刺激感応していることが、概念認識(図25の129・215)・連想推定(図25の130・216)され、理解認識され、香り・味の再現(図40の179・177)で、コーヒーの香り・味の再現が、推定選択され(図40の185)、実行し(図40の179・177)、茶色のコーヒー味香ガム粒が、1粒、映像情報観察視聴者側の口元へ供給再現される。(図40の187) Next, what is the taste and fragrance (179 and 177 in FIG. 40), the situation (121 in FIG. 25) Sound information of “How about coffee” and “Good coffee” appearing before and after (Figure 25, 122 · 131), “Coffee” text information (123 · 132 in FIG. 25), “Coffee bottle”, “Cream bottle”, “Sugar bottle” “Spoon” “Coffee powder on spoon” “On spoon” People with information on cream powder, sugar powder on spoon, sugar cube on spoon, liquid coffee color, steam rising from the cup (126, 135 in Fig. 25), and gesture of stirring with a spoon Based on the information (124 and 133 in FIG. 25), it is conceptual recognition (129 and 215 in FIG. 25) and associative estimation (130 in FIG. 25) that the liquid of coffee is stimulated to human taste and smell.・ 216) and understanding Recognized, reproduction of aroma and taste (179 and 177 in FIG. 40), the reproduction of coffee aroma and taste is estimated and selected (185 in FIG. 40) and executed (179 and 177 in FIG. 40). One coffee flavored savory gum grain is supplied and reproduced in the mouth on the viewer side of the video information observation viewer. (187 in FIG. 40)

また、何の、味と香りかを特定できる 他の情報が、無い場合は、「音情報」の内(図25の122・131)、バック音楽が、「快適音」、もしくは、「音楽無し」や「カメラ類撮影状況情報」の内(図25の127・136)、「飲料カップのカメラ類ズームインなし・飲料時のカメラ類アングルの極端な変化なし・他のカメラ類映像情報のカット割挿入なし」であれば、日常的出来事での飲料品であることが、概念認識(図25の129・215)・連想推定(図25の130・216)され、理解認識できるため、「飲料液体の色」「カップから立ち昇る湯気」「カップの形状」「カップの色・柄・透明感」の物情報(図25の126・135)と、「私的・地域的・公知的連想推定情報」から推定認識連想される 最適な香り・味の再現が、選択され(図40の185)、実行し(図40の179・177)、最適味香ガム粒1粒が、映像情報観察視聴者側の口元へ供給再現される。(図40の187)
(頻度の高いものが選ばれ易く、パーソナルコンピューターの文字機能が持つ、学習機能により、各場面状況毎に、頻度の更新を 設定・記憶・学習させることもできる。)
In addition, if there is no other information that can identify what taste and fragrance, the “sound information” (122, 131 in FIG. 25), the back music is “comfortable sound” or “no music” ”And“ Camera shooting status information ”(127 and 136 in FIG. 25),“ No zoom-in of beverage cup camera, no extreme change in camera angle during beverage, cut cut rate of other camera video information ” If it is “no insertion”, since it is a concept recognition (129 and 215 in FIG. 25) and associative estimation (130 and 216 in FIG. 25), it can be understood and recognized as a beverage product in a daily event. "Color of steam", "Steam rising from the cup", "Cup shape", "Cup color / pattern / transparency" (126, 135 in FIG. 25) and "Private / Regional / Known Associative Estimation Information" Of the optimal fragrance and taste Current is selected (185 in FIG. 40), it performs (179, 177 in FIG. 40), the optimum Ajika gum grains candies, supplied reproduced to image information observer viewer side of the mouth. (187 in FIG. 40)
(Frequently selected items can be easily selected, and the learning function of the personal computer's character function allows you to set, store, and learn frequency updates for each scene situation.)

場面状況(図25の182)概念認識(図25の129・215)、もしくは、同連想推定され(図25の130・216)、理解認識確定後、再現情報制御処理(図40の187)が、「時間軸上の該1以上の様々な組み合わせ、もしくは、同重ね合わせ情報」、もしくは、他に事前に用意された本体内、および、接触類・非接触類・有線類・無線類、もしくは、ネットワークの内、1以上と1以上の様々な組み合わせ、もしくは、同重ね合わせにより処理実行情報の伝達を受けた離れた実行情報処理部装置から、最適な実行情報の再選択(図40の185)、もしくは、即実行(図40の187)が、なされる事になる。
そして、その他の
「確定された最適な両形融合画像情報の処理実行」・(図40の171)
「確定された最適な両組融合画像情報の処理実行」・(図40の172)
「確定された最適な両形組融合画像情報の処理実行」・(図40の173)
「確定された最適な両離輻輳融合画像情報の処理実行」・(図40の174)
「確定された最適な画像情報の処理実行」・(図40の175)
「確定された最適な視覚情報の処理実行」・(図40の234)
「確定された最適な聴覚情報の処理実行」・(図40の176)
「確定された最適な嗅覚情報の処理実行」・(図40の177)
「確定された最適な触覚情報の処理実行」・(図40の178)
「確定された最適な味覚情報の処理実行」・(図40の179)
「確定された最適なカメラ類撮影状況情報の処理実行」・(図40の235)
「確定された最適な人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」・(図40の236)
「確定された最適な人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」・(図40の237)
「確定された最適な制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理実行」(図40の238)、 および、
「確定された最適なコンピュータプログラム言語情報の処理実行」(図40の239)の内、
「確定された最適ないずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報の処理実行」(図40の180)が、実行され、
「映像情報内容から判断できる空間情報提示」(図40の182)が、最終的に、観察視聴者の5感覚(視覚・聴覚・嗅覚・味覚・触覚)に伝わる様に実行され、平面映像情報空間の情報内容(図25の121)が、立体的に、最適な臨場感を 伴って映像情報観察視聴者の目前・顔面・身体などの5感覚で、再現・伝達され、感動を生むことになり易くなる。(図40の187)
Scene situation (182 in FIG. 25) Concept recognition (129 and 215 in FIG. 25) or Associative estimation (130 and 216 in FIG. 25) After understanding and recognition are confirmed, reproduction information control processing (187 in FIG. 40) is performed. , "The one or more various combinations on the time axis, or the same superposition information", or in the body prepared in advance, and contact, non-contact, wired, wireless, or , Re-selection of optimum execution information (185 in FIG. 40) from a remote execution information processing unit that has received processing execution information transmitted by various combinations of one or more and one or more of the networks or by superposition ) Or immediate execution (187 in FIG. 40).
Then, the other “execution of processing of the determined optimal bimorph image information” (171 in FIG. 40)
“Process execution of the determined optimal both-set fusion image information” (172 in FIG. 40)
“Process execution of the determined optimal bimodal image information” (173 in FIG. 40)
“Processing of the determined optimal both-vergence fusion image information” (174 in FIG. 40)
“Processing of determined optimal image information” (175 in FIG. 40)
“Process execution of the determined optimal visual information” (234 in FIG. 40)
“Process execution of the determined optimal auditory information” (176 in FIG. 40)
“Process execution of the determined optimal olfactory information” (177 in FIG. 40)
“Processing of the determined optimal tactile information” (178 in FIG. 40)
“Process execution of the determined optimum taste information” (179 in FIG. 40)
“Process execution of the determined optimal camera state information” (235 in FIG. 40)
“Execution of private, regional, and publicly known concept recognition information that can be recognized by the best determined person” (236 in FIG. 40)
“Execution of private / regional / public associative estimation information that can be estimated by the optimal person” ・ (237 in FIG. 40)
"Processing execution of the processing information of one of the determined optimal control units / control devices / control devices / control systems" (238 in FIG. 40), and
Of the “execution of the determined optimal computer program language information” (239 in FIG. 40),
"Processing execution of processing information consisting of any one or more of the determined optimums, various combinations of the same one or more, or various superpositions of the same one or more" (180 in FIG. 40) is executed,
“Presentation of spatial information that can be judged from the contents of the video information” (182 in FIG. 40) is finally executed so as to be transmitted to the five senses (visual, auditory, olfactory, gustatory, and tactile) of the viewer. The information content of space (121 in FIG. 25) is reproduced and transmitted in three dimensions, in front of the viewer, the face, and the body of the video information observing viewer with an optimal sense of presence. It becomes easy to become. (187 in FIG. 40)

以上をまとめると、極めて簡単な1例として、
上記、平面映像情報空間情報(図25の121)の処理実行を行う場面状況(図25・40の182)は、
平面画像情報内(図25の121)の「音情報」(図25の122)・「人情報」(図25の124)・「生物情報」(図25の125)・「物情報」(図25の126)・「文字情報」(図25の123)・「カメラ類撮影状況情報」(図25の127)・「前記情報を除いた平面画像情報」(図25の128)・「人が持つ 私的・地域的・公知的 概念認識情報」(図25の129)・「人が持つ 私的・地域的・公知的 連想推定情報」(図25の130)・「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」(図25の213)、および、「コンピュータプログラム言語情報の処理情報」(図25の214)の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報(図25の130)と、
「時間軸上の該各情報」(図25の131〜137・215〜218)の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報』(図25の139)
との情報比較により、
In summary, as a very simple example,
The scene situation (182 in FIGS. 25 and 40) for executing the processing of the plane image information space information (121 in FIG. 25) is as follows.
“Sound information” (122 in FIG. 25), “Human information” (124 in FIG. 25), “Biological information” (125 in FIG. 25), “Material information” (FIG. 25) in the plane image information (121 in FIG. 25) 25 of 126), “character information” (123 of FIG. 25), “camera shooting state information” (127 of FIG. 25), “planar image information excluding the information” (128 of FIG. 25), “Private / Regional / Known Concept Recognition Information” (129 in FIG. 25) / “Private / Regional / Known Associative Estimation Information” (130 in FIG. 25) / “Control Units / Control Devices” "Processing information of any of control devices / control systems" (213 in FIG. 25) and "Processing information of computer program language information" (214 in FIG. 25),
1 or more, 1 or more of various combinations, or 1 or more of various overlay information (130 in FIG. 25),
Of the “information on the time axis” (131 to 137 and 215 to 218 in FIG. 25), one or more, one or more various combinations, or one or more various superposition information ”(FIG. 25). 139)
By comparing information with

「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)で、大まかな比較情報を照合検出し、より速い、場面状況を確定する。(図25の182)
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlarge” (FIG. 25 of 145) “reduction” (146 of FIG. 25) “expansion” (147 of FIG. 25) “compression” (148 of FIG. 25) “equivalent” (149 of FIG. 25) “match” (150 of FIG. 25) “ “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” (155 in FIG. 25) “Intersection” (FIG. 25 156) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) “Separation” (161 in FIG. 25) “ “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Break” 165 in FIG. 25) “Now” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (220 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (FIG. 25 227) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) “East” (232 in FIG. 25), And “unrelated” (168 in FIG. 25),
“Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more” (169 in FIG. 25), or “processing for detecting the same comparison information simultaneously. In the “information” (170 in FIG. 25), rough comparison information is collated and detected, and a faster scene situation is determined. (182 in FIG. 25)

さらに、同様の細かな比較情報を ディジタル化された記憶「時間軸上の該各情報」との情報比較照合、各近似値幅との照合、各基準値点との照合、他の比較情報照合結果との照合により、
「変化」(図25の140)「繰り返し」(図25の141)「異変」(図25の142)「増加」(図25の143)「減少」(図25の144)「拡大」(図25の145)「縮小」(図25の146)「伸張」(図25の147)「圧縮」(図25の148)「同等」(図25の149)「一致」(図25の150)「近似」(図25の151)「類似」(図25の152)「同類」(図25の153)「関連」(図25の154)「差異」(図25の155)「交差」(図25の156)「重層」(図25の157)「近接」(図25の158)「接触」(図25の159)「遠接」(図25の160)「離反」(図25の161)「傾斜」(図25の162)「回転」(図25の163)「反転」(図25の164)「突き破り」(図25の165)「目前」(図25の166)「通過」(図25の167)「比例」(図25の219)「反比例」(図25の220)「高」(図25の221)「低」(図25の222)「大」(図25の223)「小」(図25の224)「上」(図25の225)「下」(図25の226)「右」(図25の227)「左」(図25の228)「北」(図25の229)「南」(図25の230)「西」(図25の231)「東」(図25の232)、および、「無関係」(図25の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図25の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図25の170)を照合検出し、細かく場面状況を確定し(図25の182)、5感覚情報の刺激箇所・刺激時期・刺激時間・刺激レベルとその他の画像情報処理(図40の171〜179・234〜239・180)を、各選択確定(図40の185)するため、
細やかな映像情報空間場面状況の決定(図40の182)→認識、もしくは、推定最適5感覚情報の選択と確定(図40の185)→認識、もしくは、推定最適5感覚情報の刺激箇所選択と確定(図40の185)→生態拒絶なしの認識、もしくは、推定快適5感覚情報の刺激時期の選択と確定(図40の185)→生態拒絶なしの認識、もしくは、推定快適5感覚情報の刺激時間選択と確定(図40の185)→生態拒絶なしの認識、もしくは、推定快適5感覚情報の刺激回数選択と確定(図40の185)→生態拒絶なしの認識、もしくは、推定快適5感覚情報の刺激レベル選択と確定(図40の185)→生態拒絶なしの認識、もしくは、推定快適その他の画像情報処理選択と確定(図40の185)→各生態拒絶なしの快適5感覚処理情報選択と確定処理(図40の185)→各最適5感覚処理情報運用選択と確定処理(図40の185)→各修正5感覚処理選択と処理実行」
《「確定された最適な両形融合画像情報の処理実行」(図40の171)・「確定された最適な両組融合画像情報の処理実行」(図40の172)・「確定された最適な両形組融合画像情報の処理実行」(図40の173)・「確定された最適な両離輻輳融合画像情報の処理実行」(図40の174)・「確定された最適な画像情報の処理実行」(図40の175)・「確定された最適な視覚情報の処理実行」(図40の234)・「確定された最適な聴覚情報の処理実行」(図40の176)・「確定された最適な嗅覚情報の処理実行」(図40の177)・「確定された最適な触覚情報の処理実行」(図40の178)・「確定された最適な味覚情報の処理実行」(図40の179)・「確定された最適なカメラ類撮影状況情報の処理実行」(図40の235)・「確定された最適な人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」(図40の236)・「確定された最適な人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」(図40の237)・「確定された最適な制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理実行」(図40の238)、 および、「確定された最適なコンピュータプログラム言語情報の処理実行」(図40の239)の内、
「確定された最適ないずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報の処理実行」(図40の180)》
が、行われる。
Furthermore, the same detailed comparison information is stored in the digitized memory “each information on the time axis”, the comparison with each approximate value width, the comparison with each reference value point, the other comparison information comparison results By matching with
“Change” (140 in FIG. 25) “Repetition” (141 in FIG. 25) “Abnormal” (142 in FIG. 25) “Increase” (143 in FIG. 25) “Decrease” (144 in FIG. 25) “Enlarge” (FIG. 25 of 145) “reduction” (146 of FIG. 25) “expansion” (147 of FIG. 25) “compression” (148 of FIG. 25) “equivalent” (149 of FIG. 25) “match” (150 of FIG. 25) “ “Approximation” (151 in FIG. 25) “Similarity” (152 in FIG. 25) “Same” (153 in FIG. 25) “Related” (154 in FIG. 25) “Difference” (155 in FIG. 25) “Intersection” (FIG. 25 156) “Multilayer” (157 in FIG. 25) “Proximity” (158 in FIG. 25) “Contact” (159 in FIG. 25) “Distant” (160 in FIG. 25) “Separation” (161 in FIG. 25) “ “Inclination” (162 in FIG. 25) “Rotation” (163 in FIG. 25) “Reverse” (164 in FIG. 25) “Break” 165 in FIG. 25) “Now” (166 in FIG. 25) “Pass” (167 in FIG. 25) “Proportional” (219 in FIG. 25) “Inverse proportion” (220 in FIG. 25) “High” (221 in FIG. 25) “Low” (222 in FIG. 25) “Large” (223 in FIG. 25) “Small” (224 in FIG. 25) “Up” (225 in FIG. 25) “Down” (226 in FIG. 25) “Right” (FIG. 25 227) “Left” (228 in FIG. 25) “North” (229 in FIG. 25) “South” (230 in FIG. 25) “West” (231 in FIG. 25) “East” (232 in FIG. 25), And “unrelated” (168 in FIG. 25),
"Processing information for detecting and comparing at least one or more, various combinations of the same or more, or various superpositions of the same or more" (169 in FIG. 25), or "Process for detecting the same comparison information simultaneously. "Information" (170 in FIG. 25) is collated and detected, and the scene situation is finely determined (182 in FIG. 25). Stimulation location / stimulation time / stimulation time / stimulation level of 5 sensory information and other image information processing (FIG. 40). 171 to 179, 234 to 239, 180) to confirm each selection (185 in FIG. 40),
Determination of detailed video information space scene situation (182 in FIG. 40) → recognition or selection and determination of estimated optimal 5 sensory information (185 in FIG. 40) → recognition or selection of stimulation location of estimated optimal 5 sensory information Confirmation (185 in FIG. 40) → recognition without ecological rejection or selection and determination of stimulation timing of estimated comfortable 5-sensory information (185 in FIG. 40) → recognition without ecological rejection or stimulation of estimated comfortable 5-sensory information Time selection and confirmation (185 in FIG. 40) → recognition without ecological rejection, or selection and confirmation of the number of stimuli of estimated comfortable 5-sensory information (185 in FIG. 40) → recognition without ecological rejection or estimated comfortable 5-sensory information Stimulus level selection and confirmation (185 in FIG. 40) → recognition without ecological rejection, or selection and determination of estimated comfort and other image information processing (185 in FIG. 40) → comfortable five sensory processes without ecological rejection Information selection and confirmation process (185 in FIG. 40) → each optimum 5 sensory processing information investment selection and confirmation process → each modification 5 sensory processing selection and processing execution (185 of FIG. 40) "
<<"Execution of processing of the confirmed optimal bimodal image information" (171 in FIG. 40) ・ "Execution of processing of the determined optimal bi-modal fusion image information" (172 in FIG. 40) ・ "Confirmed optimal Execute processing of correct bimorphic fusion image information ”(173 in FIG. 40),“ Execute processing of determined optimal de-convergence fusion image information ”(174 in FIG. 40),“ Processing of determined optimal image information ” “Processing execution” (175 in FIG. 40) • “Confirmed optimal visual information processing execution” (234 in FIG. 40) • “Confirmed optimal auditory information processing execution” (176 in FIG. 40) • “Confirmed” Process execution of the determined optimal olfactory information "(177 in FIG. 40)," Process execution of the determined optimal tactile information "(178 in FIG. 40)," Process execution of the determined optimal taste information "(Figure 40 179) ・ “Processing of the determined optimal camera state information "(235 in FIG. 40)""Personal, regional, and publicly known concept recognition information that can be recognized by the determined optimal person" (236 in FIG. 40) "" The determined optimal person can be estimated Process execution of private / regional / public associative estimation information ”(237 in FIG. 40) /“ Processing of processing information for any of the determined optimal control units / control devices / control devices / control systems ” "Execution" (238 in FIG. 40) and "Processing execution of determined optimal computer program language information" (239 in FIG. 40),
“Processing execution of processing information consisting of any one or more of the determined optimum, various combinations of the same one or more, or various superpositions of the same one or more” (180 in FIG. 40) >>
Is done.

時間的・空間的に、どの様に、関わるかで、どの様な、5感覚が、刺激感応(刺激箇所・刺激時期・刺激時間・刺激回数・刺激レベル)しているかが、概念認識、もしくは、連想推定され、理解でき、再現すべき最適の5感覚の刺激処理情報を 逐次選択し(図40の185)、最適の5感覚の刺激時期に、最適の5感覚の刺激時間、最適の5感覚の刺激回数だけ、最適の5感覚の刺激情報処理部に、最適の5感覚の刺激強弱のレベルなどの情報処理部運用プログラム、最適の5感覚の刺激情報処理部修正プログラムを伴って、最適の5感覚の刺激実行処理(図40の171〜179・234〜239)、もしくは、1以上からなる最適の5感覚の刺激再実行処理(図40の180)を 行うことが選択・決定され(図40の185)、逐次実行される。 Whether the five senses are stimuli-sensitive (stimulation location / stimulation time / stimulation time / stimulation frequency / stimulation level) depending on how they are related in terms of time and space. Associatively estimated, understandable, and optimal 5 sense stimulus processing information to be reproduced is sequentially selected (185 in FIG. 40), and the optimal 5 sense stimulus time, the optimal 5 sense stimulus time, and the optimal 5 sense time are selected. The optimal number of sensory stimulations is optimal, with an optimal five-sensory stimulus information processing unit, an information processing unit operation program such as the optimal five-sensory stimulus intensity level, and an optimal five-sensory stimulus information processing unit correction program. The five-sensory stimulus execution process (171 to 179, 234 to 239 in FIG. 40) or the optimal five-sensory stimulus re-execution process (180 in FIG. 40) consisting of one or more is selected and determined ( 185) in FIG. It is.

次に、「前記選択と確定の実行処理」選択実行(図40の171〜179・234〜239・180)により、「映像情報内容から判断できる最適空間情報提示」を、最終的に、観察視聴者の5感覚情報(視覚・聴覚・嗅覚・味覚・触覚)に、生態拒絶されることなく・快適に・直接的・立体的・目前・顔面・身体上で 再現し、観察視聴者心情に合わせられる忠実で感動的「最適 場面状況を考え、目前・顔面・身体上に生態拒絶されることのない、快適な再現を、実行する高度な立体画像情報処理装置」が実現できる。(図40の187) Next, the “optimum spatial information presentation that can be judged from the video information contents” is finally observed and viewed by selecting and executing “the selection and confirmation execution process” (171 to 179, 234 to 239, and 180 in FIG. 40). It is reproduced on the five viewers' senses (visual, auditory, olfactory, gustatory, and tactile) comfortably, directly, three-dimensionally, in front of you, on the face, and on the body to match the viewer's feelings It is possible to realize an advanced 3D image information processing device that performs comfortable reproduction without thinking about the optimal scene situation and being ecologically rejected on the face, face or body. (187 in FIG. 40)

この5感覚情報の立体的目前迄の臨場感再現は、家電売り場における 他社装置との 違いが 購買者に 充分伝わり、購買行動に、大きく影響するものと思われる。   The realistic reproduction of the five sensory information to the very front is likely to have a significant impact on the purchase behavior because the differences with other companies' devices in the home electronics department are fully communicated to the buyer.

また、音声情報認識による画像情報処理装置は、カーナビゲーションシステム・テレビゲームシステム上で実現され、既に9割程、確立され市販されている。
同様に、移動画像情報認識と抽出移動は、公開特許公報特開平8ー205199に、技術公開されている。
Also, image information processing apparatuses based on voice information recognition are realized on car navigation systems and video game systems, and about 90% have already been established and marketed.
Similarly, moving image information recognition and extraction movement are disclosed in Japanese Patent Application Laid-Open No. 8-205199.

また、人型情報認識、人顔情報認識、人の目・口情報認識、静脈認識、文字認識、カメラ類撮影状況情報認識の技術も、各社高度に確立され市販されている。
その応用技術により、人の手認識・物認識・生物(主にペット)認識・文字認識・カメラ類撮影状況情報認識も、さらに、詳細・高速・高度認識技術が、確立されていくと思われる。
In addition, technologies for human-type information recognition, human face information recognition, human eye / mouth information recognition, vein recognition, character recognition, and camera shooting state information recognition are well established and commercially available.
With its applied technology, human hand recognition, object recognition, biological (mainly pet) recognition, character recognition, and camera-like shooting status information recognition, and further, detailed, high-speed, advanced recognition technology will be established. .

また、モーターを使用しない電気印苛式で、変形する柔らかいプラッスチィクは、既に、大阪池田市のメーカーで、開発されていて、首掛け式・馬蹄型口元接触部持ち上げ機能による開放型再現に応用できると思われる。
首掛け式・馬蹄型・開放型・味覚触覚嗅覚再現方法は、観察視聴者の鼻・口元・耳・頬に近いため少量の再現仕事量ですみ、また、全身への触覚は、首周りのみへの刺激で、充分全身への効果を上げられ、しかも、観察視聴者が、割と移動・姿勢崩しができるため、検討にいれて頂きたい、1案と思われる。
同様に、市販の最新マッサージチェアの揉み動力・空気圧迫・振動も、各人体部分別の触覚再現技術に応用できる。
In addition, the electric plastic type that does not use a motor, and the soft plastic that deforms, has already been developed by the manufacturer in Ikeda City, Osaka, and can be applied to open-type reproduction with the neck-type and horseshoe-type mouth contact lifting function. I think that the.
Neck-mounted, horseshoe-type, open-type, taste-tactile olfactory reproduction methods are close to the viewer's nose, mouth, ears, and cheeks, so only a small amount of reproduction work is required. The effect on the whole body can be improved sufficiently by stimulating the eyes, and the viewers can move and break their postures.
Similarly, the massage power, pneumatic pressure, and vibration of the latest commercial massage chair can be applied to the tactile reproduction technology for each human body part.

次に、〔課題を解決するための手段〕14、16項に記載の事項は、時間軸上の独立し、限定され、特定される本特定空間情報である「A5感空間」(図41・42・43・44の300)が、その空間の特定場面を、確定する(図44の183)ための記載である前記14項と、その空間の特定場面(図44の183)が、確定後(図46の183)の 様々な5感覚の情報を処理すること(図46の171〜179・234〜239・335・336・180)を述べている前記16項に、分かれて、記載されているため、同じ「A5感空間」(図44の300)の場面状況確定前(図44の183)と、場面状況確定後(図46の183)であり、まとめて、「A5感空間」(図44の300)の極めて簡単な最良の形態例として、述べたい。 Next, the items described in [Means for Solving the Problems] items 14 and 16 are “A5 sensation space” which is the specific space information which is independent, limited and specified on the time axis (FIG. 41, FIG. 41). 42, 43 and 44) is the description for determining the specific scene in the space (183 in FIG. 44) and the specific scene in the space (183 in FIG. 44) is (183 in FIG. 46) are divided and described in the above 16 items describing processing of various five senses (171 to 179, 234 to 239, 335, 336, and 180 in FIG. 46). Therefore, before the scene situation confirmation (183 in FIG. 44) of the same “A5 sense space” (300 in FIG. 44) and after the scene situation confirmation (183 in FIG. 46), collectively “A5 sense space” ( As an extremely simple best example of 300) in FIG. I want.

前記〔課題を解決するための手段〕11、13項に記載の「映像情報内容から(図25の121)判断できる最適空間情報提示」(図40の182)が、
〔課題を解決するための手段〕14、16項では、「映像情報内容から」(図25の121)が、「特定A5感空間情報状況内容から」(図44の300)に、置き換わったものである。
[Means for Solving the Problems] The “presentation of optimum spatial information that can be determined from the video information content (121 in FIG. 25)” (182 in FIG. 40) described in the items 11 and 13
[Means for Solving the Problems] In items 14 and 16, “from video information content” (121 in FIG. 25) is replaced with “from specific A5 sense space information status content” (300 in FIG. 44). It is.

つまり、
「特定A5感空間情報状況内容から判断できる最適空間情報提示」(図44の183)
となる。
That means
“Presentation of optimum spatial information that can be judged from the specific A5 sense spatial information status” (183 in FIG. 44)
It becomes.

特定A5感空間情報(図44の300)には、平面画像情報(図25の121)以外の様々な情報が、含まれているが、全て、人に、より認識されるため、人の5感覚情報に、集約される情報となる。この事は、前記11、13項の映像情報内容(図25の121)を、5感覚情報で、捕える手法と同じ延長線上に在るため、この手法を、応用し、特定A5感空間情報内の全ての情報(図44の300)を 捕え、空間状況(図44の183)を 確定できることになる。 The specific A5 sense space information (300 in FIG. 44) includes various information other than the plane image information (121 in FIG. 25). It becomes information that is aggregated into sensory information. This is because the video information content of items 11 and 13 (121 in FIG. 25) is five sense information and is on the same extension line as the method of capturing. All the information (300 in FIG. 44) can be captured and the spatial situation (183 in FIG. 44) can be determined.

詳細すると、
「特定A5感空間情報状況内容から判断できる最適空間情報提示」(図44の183)には、特定A5感空間情報内(図44の183)の「音情報」(図44の122・131)から検知できる。
In detail,
The “sound information” (122 and 131 in FIG. 44) in the specific A5 sense space information (183 in FIG. 44) is included in the “presentation of optimum spatial information that can be determined from the specific A5 sense space information status content” (183 in FIG. 44). Can be detected.

つまり、比較計測される「単位時間の比較音情報」(図44の122)、もしくは、「定・不定時間の比較 同時・直前・直後の同各音情報」(図44の122)と
比較基となる「時間軸上の音情報」(図44の131)との 情報比較で
That is, “comparison sound information of unit time” (122 in FIG. 44) or “comparison of constant / indefinite time, same sound information at the same time, immediately before and after” (122 in FIG. 44) to be compared and measured. Compared with the “sound information on the time axis” (131 in FIG. 44)

音情報の高低・同強弱・同音色の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “Enlarge” (145 in FIG. 44) “Shrink” (146 in FIG. 44) “Extension” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (149 in FIG. 44) ) “Match” (150 in FIG. 44) “Approximation” (151 in FIG. 44) “Similar” (152 in FIG. 44) “Same” (153 in FIG. 44) “Related” (154 in FIG. 44) “Difference” ( 155 in FIG. 44) “Intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) ) “Separation” (161 in FIG. 44) “Tilt” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” 44 of FIG. 44) “Breakthrough” (165 of FIG. 44) “Near” (166 of FIG. 44) “Pass” (167 of FIG. 44) “Proportional” (219 of FIG. 44) “Inverse proportion” (220 of FIG. 44) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (FIG. 44 226) “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) “ Of “East” (232 in FIG. 44) and “Unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の音情報」(図44の131)とは、
『「過去の確定音情報」・「現在進行中の音情報」・「未来変化予側される推定音情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた音情報』の内、少なくとも1以上からなる。
“Sound information on the time axis” (131 in FIG. 44)
“Memorize“ Past definite sound information ”,“ Current sound information in progress ”,“ Estimated sound information predicted to change in the future ”, the average value of the similar class, or the deviation value of the similar class, or It is composed of at least one of the predicted and stored sound information.

音情報(図44の122・131)は、楽音・騒音(雑音)・純音に分けると記憶すべき情報量が多くなるため、「音声音色(人の声)」・「映像情報用効果音音色」・「音響音色(曲・リズム)」・「騒音音色(日常的意味;極めて簡単な1例として歓声)」に分けるか、さらに少ない情報量で済む前後の空間情報状況移動表現を要求される空間情報場面状況別(極めて簡単な空間情報場面状況例として「1相撲の取り組み空間情報場面状況」・「2野球の安打・クロスプレイ空間情報場面状況」・「3サッカーシュート空間情報場面状況」・「4ボクシングラッシュ空間情報場面状況」・「5その他スポーツの盛り上がり空間情報場面状況」・「6スリラー映画の恐怖空間情報場面状況」・「7その他 恐怖空間情報場面状況」・「8驚き空間情報場面状況」・「9爆発空間情報場面状況」・「10電撃的シーン空間情報場面状況」・「11ニュース空間情報場面状況」・「12料理空間情報場面状況」・「13風景空間情報場面状況」・「14逃走空間情報場面状況」・「15追走空間情報場面状況」・「16格闘空間情報場面状況」・「17旅行空間情報場面状況」・「18その他の感動空間情報場面状況」・「19水・海水・霧・雨・煙・火炎・雲・各流体物の流れなどの顔面に、迫る空間情報場面状況」・「20日常会話の空間情報場面状況」)の音色音情報の記録に分ける方法があり、これに、近似値の幅を持たしてもよい。   The sound information (122 and 131 in FIG. 44) has a large amount of information to be stored when it is divided into musical sounds, noises (noise), and pure sounds. Therefore, “sound timbre (human voice)” and “effect sound tone for video information” "Sound timbre (song, rhythm)", "Noise timbre (daily meaning; cheers as an extremely simple example)", or a spatial information situation movement expression before and after that requires less information Spatial information by scene situation (examples of extremely simple spatial information scene situations are "1 Sumo's efforts spatial information scene situation", "2 Baseball hits / cross play spatial information scene situation", "3 Soccer shoot spatial information scene situation" "4 boxing rush space information scene situation" "5 other sports excitement space information scene situation" "6 thriller movie horror space information scene situation" "7 other horror space information scene situation" "8 surprise "Scene information scene situation", "9 explosion space information scene situation", "10 electric shock scene space information scene situation", "11 news space information scene situation", "12 cooking space information scene situation", "13 landscape space information scene" "Situation", "14 getaway space information scene situation", "15 follow-up space information scene situation", "16 fighting space information scene situation", "17 travel space information scene situation", "18 other emotional space information scene situation"・ "19 water / seawater / fog / rain / smoke / flame / clouds / space information scenes approaching the face of each fluid flow" / "20 daily conversation spatial information scenes") There is a method of dividing into recording, and this may have a width of an approximate value.

極めて簡単な空間情報場面状況例を参考に説明すると、空間情報場面状況別(図44の183)のキーとなる音は、「1の空間情報場面状況」では、行司の声とアナウンサーの「さあ、時間です」。歓声(約1秒)は幕下では、起こらない。行司の声「ハッケヨイ」・「タラッタラッタラッタ」は、各人かなり音色が違うため、全員記憶する必要がある。「2の空間情報場面状況」は、アナウンサーの「さあ、バッター打席に立ちました・打ちました・三振」等の決まり文句と歓声がある。「3の空間情報場面状況」・「4の空間情報場面状況」・「5の空間情報場面状況」も前記同様アナウンサーの決まり文句と観客席の歓声である。「6の空間情報場面状況」・「7の空間情報場面状況」とも恐怖専用効果音・同過去に使われた専用効果音楽と「キャー、ギャー」(97〜103/100秒)類の悲鳴。   To explain with reference to a very simple example of the spatial information scene situation, the key sound for each spatial information scene situation (183 in FIG. 44) is the voice of the boss and the announcer's voice ,It's time". Cheers (about 1 second) do not occur at the bottom of the shogunate. The voices of the bosses “Hakkeyoi” and “Taratta Ratta Ratta” must be memorized because everyone has a very different tone. “Spatial information scene situation of 2” has a cliché and cheers, such as “Now, I'm standing at the batter, I struck, strikeout” by the announcer. “Spatial information scene situation 3”, “4 spatial information scene situation”, and “5 spatial information scene situation” are also the announcer's cliché and cheering of the audience seats as described above. "Spatial information scene situation of 6" and "Spatial information scene situation of 7" are both dedicated sound effects for horror, exclusive effect music used in the past and screams of "Kar, Gya" (97-103 / 100 seconds).

「8の空間情報場面状況」は、「あぁ・わー・わぉ・えっ・えぇー」などの感嘆音。「9の空間情報場面状況」は、爆発音(105〜115/100秒)。「10の空間情報場面状況」は、雷鳴(38〜45/100秒)等のショック用効果音。「11の空間情報場面状況」は、「○○のニユース・本日の○○は、・臨時ニュース」です等のニュース定形語。「12の空間情報場面状況」は、「さあ、できました・美味しそうですね・食べてみましょう・では、いきます」等の料理定形語・「沸騰音・包丁音・水道流水音」等の料理専用音。「13の空間情報場面状況」は、行き交う車両音・川のせせらぎ音・滝の落下音・鳥の声等の自然環境音・収録音。「14・15の空間情報場面状況」は、足音・車両エンジン音・タイヤ軋み音等の 動く物の音と 呼吸音・服の擦れる音・収録音。「16の空間情報場面状況」は、刃物類のぶつかり音・殴打音等の格闘音と気合声・罵声・歓声・試合開始音。「17旅行空間情報場面状況」は、同場面状況の旅行中の乗り物の音・旅行中の環境音・人の声・会話・旅行雑音と「○○に来ました・○○に着きました・○○が見えます」の旅行定形句。「20日常会話の空間情報場面状況」は、「おはよう」・「元気」・「お休み」・「何時も かわいいね」・「チャンネル変えて」、および、「何処其処の情報を出してくれ」などの日常会話・日常依頼定形句・日常愛情表現定形句・日常心配定形句・日常報告定形句・日常連絡定形句・日常相談定形句・日常お世辞定形句・日常独り言定形句、および、日常感情表現定形句や 事前登録者の音声。以上が挙げられる。   “8 spatial information scene situations” is an exclamation sound such as “Oh, wow, wow, eh, ee”. “9 spatial information scene situations” are explosive sounds (105 to 115/100 seconds). “10 spatial information scene situations” are sound effects for shock such as thunder (38-45 / 100 seconds). “11 Spatial Information Scene Situation” is a news fixed word such as “News of XX / Today's XX is Extra News”. “12 spatial information scenes” is a standard form of cooking such as “Now it ’s done, it looks delicious, let ’s eat, let ’s go”, “Boiling sound, knife sound, running water sound”, etc. Cooking sound. “13 Spatial Information Scene Conditions” are natural sounds such as vehicle sounds, river buzzing sounds, waterfall falling sounds, bird voices, and recorded sounds. “14/15 spatial information scene situations” are sounds of moving objects such as footsteps, vehicle engine sounds, tire squeaking sounds, breathing sounds, rubbing sounds, and recorded sounds. “Sixteen spatial information scene situations” are the fighting sounds such as the crushing sound of the cutlery, the beating sound, and the screaming voice, hoarseness, cheers, and the game start sound. “17 Travel Space Information Scene Situation” is the same as the travel sound of the vehicle during travel, environmental sound during travel, human voice, conversation, travel noise and “I arrived at XX.・ You can see ○○ ”travel phrases. “20 daily conversation spatial information scene situations” are “Good morning”, “Energetic”, “Rest”, “Cute at any time”, “Change channel”, and “Please give me the information of where” Daily conversation, daily request fixed phrases, daily affection fixed phrases, daily worried fixed phrases, daily report fixed phrases, daily contact fixed phrases, daily consultation fixed phrases, daily flattering fixed phrases, daily single words fixed phrases, and daily emotions Expression phrases and pre-registrant voices. The above is mentioned.

前記キーとなる音情報(図44の122・131)は、0.000025秒〜7秒等の短時間間隔で捕えられ各空間情報場面状況(図44の183)が、確定する。 The key sound information (122 and 131 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 7 seconds, and each spatial information scene situation (183 in FIG. 44) is determined.

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の音情報」(図44の131)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimum spatial information presentation processing is selected (185 in FIG. 46), further, “sound information on the time axis” (131 in FIG. 44). Compare information with.

従って、最初から、全ての音情報(図44の122・131)を、細かく情報比較する必要はない。 Therefore, it is not necessary to perform detailed information comparison of all sound information (122 and 131 in FIG. 44) from the beginning.

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる音情報(図44の122・131)は、0.000025秒〜7秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 の音の強弱・音の高低との音情報比較で平均値、もしくは、偏差値+各αライン値を超えた基準値点をスタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にできる。 The sound information (122 and 131 in FIG. 44), which is a fine key, is captured at short intervals of 0.000025 seconds to 7 seconds or the like, or simultaneously, the average value of the spatial information scene situation, Or, by comparing the sound information with the intensity of the sound of the deviation value and the pitch of the sound, the reference value point that exceeds the average value or deviation value + each α line value is set as the start point, and the same reference value point is set at the same short time interval. A point below can be made one goal point.

相対的変化の管理の方が、どのような空間情報場面状況にも 対応でき、音情報の変化は、該最適空間情報提示の処理の変化と 合致するためである。  This is because the relative change management can cope with any spatial information scene situation, and the change in the sound information matches the change in the process of presenting the optimum spatial information.

音情報の絶対的変化の管理としては、1種に、「18その他の感動空間情報場面状況」の場合、殆どの感動空間情報場面状況の時、誰でも、人の声は、平常時での、音色の高低・強弱が、感動空間情報場面状況に、近づくにつれ、高く・強く・音色の波形も短くなることで、感動空間情報場面状況(図44の183)を、捕えることもできる1種類が、ある。  As for the management of the absolute change of sound information, in the case of “18 other emotional space information scene situations”, in almost all emotional space information scene situations, anyone can hear human voices at normal times. As the timbre level, strength and weakness gets closer to the moving space information scene situation, it becomes higher, stronger, and the timbre waveform becomes shorter, so that the moving space information scene situation (183 in FIG. 44) can be captured. There is.

別の1種類としての、音情報の絶対的変化の管理としては、「18その他の感動空間情報場面状況」の場合、殆どの感動空間情報場面状況の時、高揚する音・沈鬱となる音・心情が、引き伸ばされる音・軽妙な音・苛々する音、および、重厚感を想像させる音などの誰でも、音色の高低・強弱により、導かれる感情移入音が、或る程度、共通している傾向が存在しているため、この音で、感動空間情報場面状況を、捕えることもできる別の1種類が、ある。  As another type of management of the absolute change of sound information, in the case of “18 other emotional space information scene situations”, in most of the emotional space information scene situations, the sound that is uplifted, the sound that becomes depressed, The emotional empathetic sound that is guided by the high, low, high, and weak timbres of everybody, such as the sound that stretches, the light, frustrating, and the sound that makes you feel a profound feeling, is shared to some extent. Since there is a tendency, there is another kind that can capture the moving space information scene situation with this sound.

従って、「音情報の相対的変化の管理」と「2種類の音情報の絶対的変化の管理」を合わせ持った方が、より、効果を上げられる。   Therefore, the combination of “management of relative change of sound information” and “management of absolute change of two kinds of sound information” is more effective.

また、空間情報状況で、観察者が、テレビジョンを、視聴している空間情報の場合、テレビジョンチャンネル変更で番組途中から鑑賞する観察視聴者には、チャンネル変更信号検知に依り、最初に戻り、比較検知活動を行えば、良い。 In the case of spatial information where the viewer is watching television in the spatial information situation, the viewer returns to the beginning depending on the channel change signal detection for the viewer watching from the middle of the program by changing the television channel. If you do comparative detection activity, it is good.

さらに、「19ひそひそ話からの劇的展開空間情報場面状況」では、音声の弱さ・同低さの後の強い音・高い音の参入音、さらに、無言時間だけでは判断できない時は、静止的画像情報などの視覚情報(視覚情報上は、会話者同士が一瞬見つめ合う空間情報場面状況)も考慮に入れ、音情報と視覚情報を総合して「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)に対応できる。   Furthermore, in the “dramatic development of spatial information scene situation from the 19th secret story”, when the voice is weak, the sound is strong, the sound is high, the sound is high, and the sound is stationary when it cannot be determined by silent time alone. Taking into account visual information such as image information (on the visual information, the spatial information scene situation where conversations stare at each other for a moment), the sound information and visual information are combined to create a “space that can be determined from the contents of the specific A5 sense space information situation This can correspond to “information presentation” (183 in FIG. 44).

「19水・海水・霧・雨・煙・火炎・雲・各流体物の流れなどの顔面に、迫る空間情報場面状況」では、通常の前記空間情報の音情報、もしくは、前後の通常空間情報の音情報が、耳元に、迫るほどの音情報へと変化するため、これを捕えて、この迫る空間情報場面状況を、捕えることもできる。(図44の183) In “19 Space Information Scenes Approaching the Face of Water, Seawater, Fog, Rain, Smoke, Flame, Clouds, and Flow of Fluids”, the sound information of the normal spatial information or the normal spatial information before and after Since the sound information changes to sound information close to the ear, it is possible to capture the approaching spatial information scene situation. (183 in FIG. 44)

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「人情報」(図44の124・133)からも検知できる。 In “Presentation of spatial information that can be determined from the contents of the specific A5 sense space information status” (183 in FIG. 44), “Personal information” (124 and 133 in FIG. 44) in the specific A5 sense space information (300 in FIG. 44) Can also be detected.

つまり、比較計測される「単位時間の比較人情報」(図44の124)、もしくは、「定・不定時間の比較 同時・直前・直後の同各人情報」(図44の124)と
比較基となる「時間軸上の人情報」(図44の133)との 情報比較で
That is, “Comparison information of unit time” (124 in FIG. 44) or “Comparison information of constant / indefinite time comparison, same person information immediately before / after” (124 in FIG. 44) and comparison basis. Information comparison with “person information on the time axis” (133 in FIG. 44)

人情報の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” of human information (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Anomaly” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “Enlargement” (145 in FIG. 44) “Reduction” (146 in FIG. 44) “Expansion” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (149 in FIG. 44) “Match” (FIG. 44) 150) “approximate” (151 in FIG. 44) “similar” (152 in FIG. 44) “similar” (153 in FIG. 44) “related” (154 in FIG. 44) “difference” (155 in FIG. 44) “intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) “Separation” (in FIG. 44) 161) “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “Protrusion” 44 (FIG. 44) ”Now” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (FIG. 44) 221) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” 44 (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) “East” (in FIG. 44) 232) and “unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の人情報」(図44の133)とは、
『「過去の確定人情報」・「現在進行中の人情報」・「未来変化予側される推定人情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた人情報』の内、少なくとも1以上からなる。
“Personal information on the time axis” (133 in FIG. 44)
"Memorize the information of past confirmed persons", "Person information currently in progress", "Estimated person information predicted to change in the future", the average value of the similar class, or the deviation value of the similar class, or It is composed of at least one of “predicted and stored human information”.

「人情報」は、人型情報・服帽子情報・髪型情報・顔情報・目元情報・口元情報・鼻位置情報・手情報・人体各部各位置情報・肌・靴情報・人型不停止情報・人型歩行走行情報があり、それぞれ、色・柄が、加わる。 "Human information" includes human type information, clothes hat information, hairstyle information, face information, eye information, mouth information, nose position information, hand information, position information of each part of the human body, skin, shoe information, human type non-stop information, There is humanoid walking information, and colors and patterns are added respectively.

「人不停止情報」とは、人は、映像情報上 必ず動く為、その情報により、人形との差異を検知できる。動くとは、風による体の揺れ、静止中での細かな体の揺れ、呼吸による体の揺れ、振り向き、首振り、手振り等の細やかな気配り動作、会話中での口元の変化、瞬き、ウインク、目線・視点・白目の変化、開口した目の大きさ・形の変化、笑い顔・泣き顔・寂し顔等の筋肉・眉毛・皺・髭・傷・唇の形・白い歯の見え隠れ、および、前髪の揺れ等の一瞬の変化が、挙げられ、殆どの場合、人型が、どこか一定せず、いずれかで、変化が起こる。 “Personal non-stop information” means that a person always moves on video information, so the information can detect a difference from a doll. Movement means shaking of the body due to the wind, shaking of the body while stationary, shaking of the body due to breathing, delicate actions such as turning, swinging, shaking hands, changing mouth during conversation, blinking, winking , Changes in line of sight, viewpoint, white eyes, changes in size and shape of open eyes, muscles such as laughing face, crying face, lonely face, eyebrows, eyelids, eyelids, wounds, lip shapes, white tooth visibility, and Instantaneous changes such as bangs of the bangs are mentioned, and in most cases, the human figure is not constant somewhere, and changes occur anywhere.

前記極めて簡単な空間情報場面状況例(図44の183)におけるキーとなる人情報は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183)   Since the human information that is a key in the extremely simple example of the spatial information scene situation (183 in FIG. 44) is different for each spatial information scene situation, the spatial information scene situation can be specified from this difference. (183 in FIG. 44)

前記キーとなる人情報(図44の124・133)は、0.000025秒〜3秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The key person information (124 and 133 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 3 seconds, and each spatial information scene situation is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の人情報」(図44の133)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimum spatial information presentation processing is selected (185 in FIG. 46) is further selected, “personal information on the time axis” (133 in FIG. 44). Compare information with.

従って、最初から、全ての人情報(図44の124・133)を、細かく情報比較する必要はない。   Therefore, it is not necessary to make detailed information comparison of all human information (124 and 133 in FIG. 44) from the beginning.

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる人情報(図44の124・133)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値の人情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、個々の人情報内容確定作業を
相対的変化に管理する方が、どのような空間情報場面状況にも 対応し易い。
The person information (124 and 133 in FIG. 44), which is a fine key, is captured at short intervals such as 0.000025 seconds to 3 seconds, or simultaneously, and the average value of the spatial information scene situation, Or, by comparing human information of deviation values, the average value or the reference value point that exceeds the deviation value + each α line value can be used as the starting point, and the point that falls below the reference value point at the same short time interval can be set as one goal point. , Work to confirm the content of individual information
Managing relative changes is easier to deal with any spatial information scene situation.

人情報(図44の124・133)の変化は、該最適空間情報提示の処理の変化と合致するためである。 This is because the change in the human information (124 and 133 in FIG. 44) matches the change in the process of presenting the optimum spatial information.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「生物情報」(図44の125・134)からも検知できる。 In “Presentation of spatial information that can be determined from the contents of specific A5 sense space information status” (183 in FIG. 44), from “Biological information” (125 and 134 in FIG. 44) in the specific A5 sense space information (300 in FIG. 44). Can also be detected.

つまり、比較計測される「単位時間の比較生物情報」(図44の125)、もしくは、「定・不定時間の比較 同時・直前・直後の同各生物情報」((図44の125)と
比較基となる「時間軸上の生物情報」(図44の134)との 情報比較で
In other words, it is compared with “Comparison information of unit time” (125 in FIG. 44) or “Comparison information of constant / indefinite time, same life information immediately before / after” (125 in FIG. 44). By comparing the information with the “biological information on the time axis” (134 in FIG. 44)

生物情報の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” of biological information (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “Enlargement” (145 in FIG. 44) “Reduction” (146 in FIG. 44) “Expansion” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (149 in FIG. 44) “Match” (FIG. 44) 150) “approximate” (151 in FIG. 44) “similar” (152 in FIG. 44) “similar” (153 in FIG. 44) “related” (154 in FIG. 44) “difference” (155 in FIG. 44) “intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) “Separation” (in FIG. 44) 161) “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “ 44 (165 in FIG. 44) “Now” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (FIG. 44 221) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “ “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) “East” (FIG. 44) 232) and “unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の生物情報」(図44の134)とは、
『「過去の確定生物情報」・「現在進行中の生物情報」・「未来変化予側される推定生物情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた生物情報』の内、少なくとも1以上からなる。
“Biological information on the time axis” (134 in FIG. 44)
“Memorize the information of past confirmed organisms”, “Currently ongoing organism information”, “Estimated organism information predicted to change in the future”, the average value of the similar class, or the deviation value of the similar class, or It consists of at least one of the biological information predicted and stored.

「生物情報」は、生物型情報・服帽子情報・髪型情報・顔情報・目元情報・口元情報・鼻位置情報・手情報・生物体各部各位置情報・肌・靴情報・生物型不停止情報・生物型歩行走行情報があり、それぞれ、色・柄が、加わる。 "Biological information" includes biological type information, clothes hat information, hairstyle information, face information, eye information, mouth information, nose position information, hand information, information on each part of the organism, skin, shoe information, and biological type non-stop information.・ There is biological walking information, and colors and patterns are added respectively.

「生物不停止情報」とは、生物は、映像情報上 必ず動く為、その情報により、生物マネキン・生物型人形との差異を検知できる。動くとは、風による体の揺れ、静止中での細かな体の揺れ、呼吸による体の揺れ、演技中での振り向き、首振り、手振り等の細やかな気配り演技、呼吸・唸り・吠える行為・会話中での口元の変化、瞬き、ウインク、目線・視点・白目の変化、開口した目の大きさ・形の変化、笑い顔・泣き顔・寂し顔等の筋肉・眉毛・皺・髭・傷・唇の形・白い歯牙の見え隠れ・前髪前毛の揺れ等の一瞬の変化が、上げられ、殆どの場合、生物型が、どこか一定していない。 “Biological non-stop information” means that living organisms always move on the video information, so the information can be used to detect differences from biological mannequins and biological dolls. Movement means shaking of the body by the wind, shaking of the body at rest, shaking of the body by breathing, turning during the performance, swinging, swinging, hand gestures, etc. Mouth change during conversation, blink, wink, eye / viewpoint / white eye change, open eye size / shape change, muscles such as laughing face / crying face / lonely face, eyebrows, eyelids, wrinkles, wounds, etc. Instantaneous changes such as the shape of the lips, the appearance of white teeth, and the bangs of the bangs are raised, and in most cases, the biotype is not constant.

また、静止しているカメレオン、ナマケモノ、植物以外は、眠っている状態で あり、目の位置確認後、瞼目の形状 状態、および、呼吸による胸部の膨張減少で、確定できる。   Other than the resting chameleons, sloths, and plants are in a sleeping state. After confirming the position of the eyes, it can be determined by the shape of the eyelets and the decrease in expansion of the chest due to breathing.

前記極めて簡単な場面状況で生物出現空間情報場面状況例におけるキーとなる生物情報(図44の125・134)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183)    The biological information (125 and 134 in FIG. 44), which is a key in the example of the biological appearance spatial information scene situation in the extremely simple situation, is different for each spatial information scene situation. Can be identified. (183 in FIG. 44)

前記キーとなる生物情報(図44の125・134)は、0.000025秒〜3秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The biological information (125 and 134 in FIG. 44) as the key is captured at short intervals such as 0.000025 seconds to 3 seconds, and each spatial information scene situation is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の生物情報」(図44の134)との情報比較を行う。 After determining the situation of each spatial information scene (183 in FIG. 46), which of the optimal spatial information presentation processing is selected (185 in FIG. 46), further, “biological information on the time axis” (134 in FIG. 44). Compare information with.

従って、最初から、全ての生物情報(図44の125・134)を、細かく情報比較する必要はない。 Therefore, it is not necessary to compare all biological information (125 and 134 in FIG. 44) from the beginning.

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる生物情報(図44の125・134)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 の生物情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような空間情報場面状況にも 対応し易い。 The detailed biological information (125 and 134 in FIG. 44) is captured at short intervals of 0.000025 seconds to 3 seconds or the like, or simultaneously, the average value of the spatial information scene situation, Or, in the biological information comparison of deviation values, the average value or the reference value point that exceeds the deviation value + each α line value can be used as the starting point, and the point that falls below the reference value point at the same short time interval can be set as one goal point. The relative change management is easier to deal with any spatial information scene situation.

生物情報(図44の125・134)の変化は、 該最適空間情報提示の処理の変化と深く関わっているためである。 This is because changes in biological information (125 and 134 in FIG. 44) are deeply related to changes in the processing of presenting the optimum spatial information.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「文字情報」(図44の123・132)からも検知できる。 In “Presentation of spatial information that can be determined from the specific A5 sense space information status” (183 in FIG. 44), “Character information” (123 and 132 in FIG. 44) in the specific A5 sense space information (300 in FIG. 44) Can also be detected.

つまり、比較計測される「単位時間の比較文字情報」(図44の123)、もしくは、「定・不定時間の比較 同時・直前・直後の同各文字情報」(図44の123)と
比較基となる「時間軸上の文字情報」(図44の132)との 情報比較で
That is, “comparison character information of unit time” (123 of FIG. 44) or “comparison of constant / indefinite time, same character information immediately before / after” (123 of FIG. 44) and comparison base Compared with the “character information on the time axis” (132 in FIG. 44)

文字情報の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” of character information (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “Enlargement” (145 in FIG. 44) “Reduction” (146 in FIG. 44) “Expansion” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (149 in FIG. 44) “Match” (FIG. 44) 150) “approximate” (151 in FIG. 44) “similar” (152 in FIG. 44) “similar” (153 in FIG. 44) “related” (154 in FIG. 44) “difference” (155 in FIG. 44) “intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) “Separation” (in FIG. 44) 161) “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “ 44 (165 in FIG. 44) “Now” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (FIG. 44 221) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “ “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) “East” (FIG. 44) 232) and “unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の文字情報」(図44の132)とは、
『「過去の確定文字情報」・「現在進行中の文字情報」・「未来変化予側される推定文字情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた文字情報』の内、少なくとも1以上からなる。
“Character information on the time axis” (132 in FIG. 44)
“Memorize the past fixed character information”, “Current character information in progress”, “Estimated character information predicted to change in the future”, the average value of the similar class, or the deviation value of the similar class, or It is composed of at least one of the “predicted and stored character information”.

「文字情報」は、文字型情報・文字型容量制限情報・文字型一定停止情報・文字型一定速度一方向移動情報があり、それぞれ、色・柄が、加わる。 “Character information” includes character type information, character type capacity restriction information, character type constant stop information, and character type constant speed one-way movement information, which are respectively added with a color and a pattern.

しかし、殆どの文字情報は、読みやすいことが、優先されるため、単一色が、単一に縁取り色、および、前記縁取りに、黒色線による境界線引きが、大半である。   However, since most of the character information is given priority to being easy to read, the single color has a single border color, and the border is mostly drawn with a black line.

「文字型容量制限情報」とは、文字情報が、読みやすいことが、最優先されるため、特定A5感空間情報内の人の大きさに比べて、人が読み取れる範囲の大きさの制限を、強いられる事になる特徴を持つ。 “Character type capacity restriction information” has the highest priority on being easy to read the character information. Therefore, the restriction on the size of the human-readable range is larger than the size of the person in the specific A5 sense space information. It has the characteristic that it will be forced.

つまり、大きすぎても、小さすぎても、文字情報検知作業から、外されることになる。   That is, whether it is too large or too small, it is excluded from the character information detection work.

「文字型一定停止情報」とは、文字情報が、読みやすいことが、最優先されるため、人が読み取る時間内は、停止している特徴を持つ。 “Character type constant stop information” has the feature that the text information is stopped during the time it is read, because priority is given to easy reading.

此れにより、人が読み取る時間内以上を、停止している画像情報は、文字の可能性が、高まり、単一色か、単一に縁取り色の色情報、および、前記に黒の境界線付き情報・適度な大きさ情報により、文字情報の確定と、個々の文字内容の情報比較検索へと 検知作業が、進められ、文字の意味に、到達できる。   As a result, image information that has been stopped for more than the time that a person reads is more likely to be a character, with single color or single border color information, and with a black border With the information and moderately sized information, the detection work can proceed to the determination of character information and the information comparison search of individual character contents, and the meaning of characters can be reached.

「文字型一定速度一方向移動情報」とは、文字情報が、読みやすいことが、最優先されるため、人が読み取れる速度で、移動し、且つ、速度が、一定であり、一方向にしか移動しないと言う特徴を持つ。 “Character-type constant speed one-way movement information” means that text information is easy to read and the highest priority is given, so it moves at a speed that humans can read and the speed is constant, and it is only in one direction. It has the feature of not moving.

此れにより、人が読み取れる速度で、一定速度移動し、一方向にしか移動しない画像情報は、文字の可能性が、高まり、単一色か・単一に縁取り色か、および、前記に黒の境界線付きか の以上の色情報・適度な大きさ情報により、文字情報の確定と、個々の文字内容の情報比較検索へと 検知作業が、進められ、文字の意味に、到達できる。   As a result, image information that moves at a constant speed at a speed that can be read by humans and moves only in one direction has an increased possibility of characters, whether it is a single color or a single border color, and the above-mentioned black information. With the above-mentioned color information with appropriate borders and appropriate size information, the detection process can proceed to the confirmation of character information and the information comparison search of individual character contents, and the meaning of characters can be reached.

前記極めて簡単な空間情報場面状況例におけるキーとなる文字情報(図44の123・132)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183)   Since the character information (123 and 132 in FIG. 44) that is a key in the extremely simple example of the spatial information scene situation differs for each spatial information scene situation, the spatial information scene situation can be specified from this difference. . (183 in FIG. 44)

前記キーとなる文字情報(図44の123・132)は、0.000025秒〜3秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The key character information (123 and 132 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 3 seconds, and each spatial information scene situation is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の文字情報」(図44の132)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimum spatial information presentation processing is selected (185 in FIG. 46) is further selected, “character information on the time axis” (132 in FIG. 44). Compare information with.

従って、最初から、全ての文字情報(図44の123・132)を、細かく情報比較する必要はない。 Therefore, it is not necessary to perform detailed information comparison of all character information (123 and 132 in FIG. 44) from the beginning.

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる文字情報(図44の123・132)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 の文字情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、個々の文字内容確定作業を 相対的変化の管理にする方が、どのような空間情報場面状況にも 対応し易い。 The detailed character information (123 and 132 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 3 seconds, or simultaneously, and is an average value of the spatial information scene situation. Alternatively, by comparing the character information of the deviation value, the average value or the reference value point that exceeds the deviation value + each α line value can be used as the starting point, and the point that falls below the reference value point at the same short time interval can be set as one goal point. Therefore, it is easier to deal with any spatial information scene situation by managing the relative change of each character content determination work.

文字情報(図44の123・132)の提供・変化は、 該最適空間情報提示の処理の変化と合致するためである。 This is because the provision / change of the character information (123 and 132 in FIG. 44) coincides with the change in the process of presenting the optimum spatial information.

個々の文字内容確定作業とは、個々の文字の特徴情報群検索から 登録されている時間軸上にある、個々の文字情報が持つ、特徴情報群との情報比較後、個々の文字情報のさらに細かな同情報との照合作業による、個々の文字の確定がある。 Individual character content confirmation work refers to the processing of individual character information after comparing the information with the feature information group of each character information on the time axis registered from the feature information group search of each character. Individual characters are confirmed by collating with the same information.

確定された個々の文字同士の連結順から来る 連結文字の意味の確定。 Determine the meaning of the concatenated characters that come from the concatenated order of the individual characters.

または、速い制御・照合・検索などの処理命令発信方法として、「比較基となるキーとなる連結文字のみ」が持つ特徴情報群照合の後、個々の文字情報のさらに細かな同情報との照合作業による、個々の文字の確定がある。 Or, as a method for sending processing commands such as fast control / collation / search, etc., after collating the feature information group of “only connected characters that are the key for comparison”, collation of individual character information with the same information further There is an individual character confirmation by work.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「物情報」(図44の126・135)からも検知できる。 In “Presentation of spatial information that can be determined from the contents of the specific A5 sense space information situation” (183 in FIG. 44), the “object information” (126 and 135 in FIG. 44) in the specific A5 sense space information (300 in FIG. 44). Can also be detected.

つまり、比較計測される「単位時間の比較生物情報」(図44の126)、もしくは、「定・不定時間の比較 同時・直前・直後の同各物情報」(図44の126)と
比較基となる「時間軸上の物情報」(図44の135)との 情報比較で
That is, “Comparison information of unit time” (126 in FIG. 44) or “Comparison information of same / immediate / immediate time comparison / immediately before / after” (126 in FIG. 44) to be compared and measured. The information comparison with “thing information on the time axis” (135 in FIG. 44)

物情報の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” of object information (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “Enlargement” (145 in FIG. 44) “Reduction” (146 in FIG. 44) “Expansion” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (149 in FIG. 44) “Match” (FIG. 44) 150) “approximate” (151 in FIG. 44) “similar” (152 in FIG. 44) “similar” (153 in FIG. 44) “related” (154 in FIG. 44) “difference” (155 in FIG. 44) “intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) “Separation” (in FIG. 44) 161) “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “Protrusion” 44 (FIG. 44) ”Now” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (FIG. 44) 221) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” 44 (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) “East” (in FIG. 44) 232) and “unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の物情報」(図44の135)とは、
『「過去の確定物情報」・「現在進行中の物情報」・「未来変化予側される推定物情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた物情報』の内、少なくとも1以上からなる。
The “thing information on the time axis” (135 in FIG. 44) is
“Memorize“ Past information of the past ”,“ Information of the current work ”,“ Estimated information that is expected to change in the future ”, the average value of the similar class, or the deviation value of the similar class, or It is composed of at least one of the “predicted and stored object information”.

「物情報」は、物型情報・色情報・柄情報・カメラ類アングルから生まれる物型変形情報・物と物との組み合わせから生まれる物型組み合わせ情報・単位時間当たりの物体移動速度・方向・角度情報があり、それぞれ、色・柄・模様が、加わる。 "Object information" is information on object type, color information, pattern information, information on object type deformation generated from camera angle, information on combination of object type generated from combination of object and object, object moving speed per unit time, direction, angle There is information, and colors, patterns and patterns are added.

前記極めて簡単な空間情報場面状況例におけるキーとなる物情報(図44の126・135)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183)   Since the object information (126 and 135 in FIG. 44) which is a key in the extremely simple example of the spatial information scene situation is different for each spatial information scene situation, the spatial information scene situation can be specified from this difference. . (183 in FIG. 44)

前記キーとなる物情報(図44の126・135)は、0.000025秒〜3秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The key object information (126 and 135 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 3 seconds, and each spatial information scene situation is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の185)、最適空間情報提示の処理のどれを選択するか、更に、細かく「時間軸上の物情報」(図44の135)との情報比較を行う。 After each spatial information scene situation is determined (185 in FIG. 46), which of the optimum spatial information presentation processing is to be selected is further compared with “object information on the time axis” (135 in FIG. 44). .

従って、最初から、全ての物情報(図44の126・135)を、細かく情報比較する必要はない。 Therefore, it is not necessary to make detailed information comparison of all the object information (126 and 135 in FIG. 44) from the beginning.

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる生物情報(図44の126・135)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 の生物情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような空間情報場面状況にも 対応し易い。 The detailed biological information (126 and 135 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 3 seconds, or in the form of simultaneous progress, the average value of the spatial information scene situation, Or, in the biological information comparison of deviation values, the average value or the reference value point that exceeds the deviation value + each α line value can be used as the starting point, and the point that falls below the reference value point at the same short time interval can be set as one goal point. The relative change management is easier to deal with any spatial information scene situation.

物情報(図44の126・135)の変化は、 該最適空間情報提示の処理の変化と深く関わっているためである。 This is because the change in the object information (126 and 135 in FIG. 44) is deeply related to the change in the process of presenting the optimum spatial information.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「カメラ類撮影状況情報」(図44の127・136)からも検知できる。  In “Presentation of spatial information that can be determined from the content of the specific A5 sense space information status” (183 in FIG. 44), “Camera shooting status information” (127 in FIG. 44) in the specific A5 sense space information (300 in FIG. 44). 136).

つまり、比較計測される「単位時間の比較 カメラ類撮影状況情報」(図44の127)、もしくは、「定・不定時間の比較 同時・直前・直後の同各カメラ類撮影状況情報」(図44の127)と
比較基となる「時間軸上のカメラ類撮影状況情報」(図44の136)との 情報比較で
That is, “Comparison camera unit shooting status information of unit time” (127 in FIG. 44) or “Comparison of constant / indefinite time comparison shooting status information of the same camera immediately before, immediately after, and immediately after” (FIG. 44). 127) and “Camera shooting status information on time axis” (136 in FIG. 44) as a comparison basis

カメラ類撮影状況情報(図44の127・136)の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
44. “Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “Enlarge” (145 in FIG. 44) “Shrink” (146 in FIG. 44) “Expand” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (FIG. 44 of 149) “match” (150 of FIG. 44) “approximate” (151 of FIG. 44) “similar” (152 of FIG. 44) “similar” (153 of FIG. 44) “related” (154 of FIG. 44) “ 44. “Difference” (155 in FIG. 44) “Intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distal” (FIG. 44 of 160) “Separation” (161 of FIG. 44) “Tilt” (162 of FIG. 44) “Rotation” (FIG. 44) 163) “Reverse” (164 in FIG. 44) “Breakthrough” (165 in FIG. 44) “Near” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) ) “Down” (226 in FIG. 44) “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” ( 44) 231) “East” (232 in FIG. 44) and “Unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上のカメラ類撮影状況情報」(図44の136)とは、
『「過去の確定カメラ類撮影状況情報」・「現在進行中のカメラ類撮影状況情報」・「未来変化予側される推定カメラ類撮影状況情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させたカメラ類撮影状況情報』の内、少なくとも1以上からなる。
“Camera shooting status information on the time axis” (136 in FIG. 44)
"" Past camera status information "," Camera status information currently in progress "," Estimated camera status information expected to change in the future " It is composed of at least one of the “camera shooting state information in which the deviation value of the class is stored or predicted and stored”.

「カメラ類撮影状況情報」(図44の127・136)は、カメラ類アングル高・中・低位置から生まれる空間情報状況の構図・同模様変化情報、カメラ類パンによる空間情報状況の構図・同模様変化情報、カメラ類ズームイン・同ズームアウト行為から生まれる空間情報状況の構図・同模様変化情報、カメラ類手持ち歩行撮影から生まれる左右に故意に揺れる空間情報状況の変化情報、人の肩越し・物越し等の「越しの撮影」から生まれる空間情報状況の構図・同模様変化情報、被写体を中心とした回転撮影から生まれる空間情報状況の構図・同模様変化情報、背景と共に 中心被写体のみを前後・左右に移動させる撮影技法から生まれる空間情報状況の構図・同模様変化情報、別のカメラ類撮影画像情報挿入等のカット割挿入によることから生まれる空間情報状況の構図・同模様変化情報、その他の特殊撮影技法から生まれる空間情報状況の構図・同模様変化情報が、あり、単位時間当たりの前記変化の、比率や 回数、空間情報状況全体形状上の位置が、上げられる。 The “camera shooting status information” (127, 136 in FIG. 44) is a composition of the spatial information situation born from the camera angle high / middle / low positions, the same pattern change information, and the spatial information situation composition by the camera pan. Pattern change information, composition of spatial information situation born from camera zoom-in / zoom-out action, pattern change information, spatial information situation change information intentionally swayed from camera to hand-held walking shooting, over shoulder / overweight Composition of spatial information situation born from “shooting over”, etc., change information of the same pattern, composition of spatial information situation born from rotation shooting around the subject, information of the same pattern change, together with the background, only the central subject is back and forth, left and right Is it due to the insertion of cuts such as the composition of the spatial information situation born from the moving shooting technique to move, the same pattern change information, the insertion of other camera shot image information etc. The composition of the spatial information situation / same pattern change information born from the above, the composition of the spatial information situation / same pattern change information born from other special photography techniques, the ratio and number of the changes per unit time, and the overall spatial information situation The position on the shape is raised.

前記極めて簡単な空間情報場面状況例におけるキーとなるカメラ類撮影状況情報(図44の127・136)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183) Since the camera shooting status information (127 and 136 in FIG. 44), which is a key in the extremely simple spatial information scene situation example, is different for each spatial information scene situation, the spatial information scene situation is specified from this difference. It will be possible. (183 in FIG. 44)

前記極めて簡単な空間情報場面状況例における場合に当てはめると、極めて簡単な1例として、野球における安打・ホームラン・クロスプレイ時のカメラ類ズームイン・同アウト行為から生まれる空間情報の構図・模様変化情報、別のカメラ類撮影画像情報挿入等のカット割挿入によることから生まれる空間情報の構図、および、模様変化情報が、上げられ、これらの変化情報は、安打・ホームラン・クロスプレイが、起こらなければ、頻繁には発生しない空間情報である。つまり、空間情報場面上の観衆興奮状態と、前記カット割挿入回数は、正比例している情報関係にあるため各空間情報場面状況変化を捕える手だてとなる。   When applied to the case of the above-mentioned very simple spatial information scene situation, as an extremely simple example, composition of the spatial information and pattern change information born from hitting in baseball, home run, zooming in cameras during cross play, and out action, The composition of spatial information and pattern change information born from the insertion of cut splits such as another camera shot image information insertion, etc. are raised, and these change information is not hit, home run, cross play, Spatial information that does not occur frequently. In other words, the audience excitement state on the spatial information scene and the number of times of cut cut insertion are directly proportional to each other, so that it becomes a means to catch each spatial information scene situation change.

前記カメラ類撮影状況情報(図44の127・136)は、0.000025秒〜3秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The camera photographing state information (127 and 136 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 3 seconds, and each spatial information scene state is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上のカメラ類撮影状況情報」(図44の136)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimum spatial information presentation processing is selected (185 in FIG. 46) is further selected. 136).

従って、最初から、全てのカメラ類撮影状況情報(図44の127・136)を、細かく情報比較する必要はない。 Therefore, from the beginning, it is not necessary to make detailed information comparison of all the camera shooting state information (127 and 136 in FIG. 44).

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなるカメラ類撮影状況情報(図44の127・136)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 のカメラ類撮影状況情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような空間情報場面状況にも 対応し易い。 The detailed camera shooting status information (127 and 136 in FIG. 44) is captured at a short interval of 0.000025 seconds to 3 seconds or the like, or simultaneously, in the spatial information scene status. When comparing the average or deviation value of the camera shooting status information, the average value or the deviation value + the reference value point that exceeds each α line value is set as the starting point, and the point below the reference value point at the same short time interval Can be set as one goal point, and the management of relative change is easier to deal with any spatial information scene situation.

カメラ類撮影状況情報(図44の127・136)の変化は、 該最適空間情報提示の処理の変化と深く関わっているためである。 This is because the change in the camera photographing state information (127 and 136 in FIG. 44) is deeply related to the change in the process of presenting the optimum spatial information.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の127・136)には、特定A5感空間情報内(図44の300)の「前記情報(音情報・文字情報・人情報・生物情報・物情報、および、カメラ類撮影状況情報)を除いた平面画像情報」(図44の128・137)からも検知できる。 The “presentation of spatial information that can be determined from the content of the specific A5 sense space information situation” (127, 136 in FIG. 44) includes “the above information (sound information / character information / people” in the specific A5 sense space information (300 in FIG. 44). It can also be detected from “planar image information excluding information / biological information / material information and camera photographing status information” (128 and 137 in FIG. 44).

つまり、比較計測される「単位時間の比較 前記情報を除いた平面画像情報」(図44の128)、もしくは、「定・不定時間の比較 同時・直前・直後の同各該平面画像情報」(図44の128)と
比較基となる「時間軸上の前記情報を除いた平面画像情報」(図44の137)との 情報比較で
「前記情報を除いた平面画像情報」(図44の128・137)の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
That is, “Compared unit time comparison plane image information excluding the information” (128 in FIG. 44) or “Comparison of constant / indefinite time, the same plane image information at the same time, immediately before, and immediately after” ( 44 in FIG. 44 and “Plane image information excluding the information on the time axis” (137 in FIG. 44) as a comparison basis (“Plane image information excluding the information”) (128 in FIG. 44). 137) “change” (140 in FIG. 44) “repetition” (141 in FIG. 44) “abnormal” (142 in FIG. 44) “increase” (143 in FIG. 44) “decrease” (144 in FIG. 44) “ “Enlarge” (145 in FIG. 44) “Shrink” (146 in FIG. 44) “Expand” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (149 in FIG. 44) “Match” (FIG. 44) 150) “approximate” (151 in FIG. 44) “similar” (152 in FIG. 44) “Same” (153 in FIG. 44) “Related” (154 in FIG. 44) “Difference” (155 in FIG. 44) “Intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (Figure 158) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) “Separation” (161 in FIG. 44) “Inclined” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “Breakthrough” (165 in FIG. 44) “Near” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (FIG. 44 of 220) “High” (221 of FIG. 44) “Low” (222 of FIG. 44) “Large” (223 of FIG. 44) “Small” (224 of FIG. 44) “Up” (225 of FIG. 44) “ “Down” (226 in FIG. 44) “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “ "(232 in FIG. 44) (230 in FIG. 44)" West "(231 in FIG. 44)" East ", and, among the" irrelevant "(168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の前記情報を除いた平面画像情報」(図44の137)とは、
『「過去の確定該平面画像情報」・「現在進行中の該平面画像情報」・「未来変化予側される推定該平面画像情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた該平面画像情報』の内、少なくとも1以上からなる。
“Planar image information excluding the information on the time axis” (137 in FIG. 44)
"" Past image information that has been confirmed in the past "," This plane image information that is currently in progress "," Estimated plane image information that is predicted to change in the future ", the average value of the same class, or the deviation of the same class It is composed of at least one or more of the plane image information in which values are stored or predicted and stored.

「前記情報を除いた平面画像情報」は、本特許明細書記載の用語の説明内の『平面画像情報』の規定から前記情報報(音情報・文字情報・人情報・生物情報・物情報、および、カメラ類撮影状況情報)を除いた平面画像情報を 示すものである。 The “planar image information excluding the information” is the information report (sound information / character information / human information / biological information / material information, from the definition of “planar image information” in the explanation of terms described in this patent specification, In addition, plane image information excluding camera shooting status information) is shown.

前記極めて簡単な空間情報場面状況例におけるキーとなる該前記情報を除いた平面画像情報(図44の128・137)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183) Since the plane image information (128 and 137 in FIG. 44) excluding the information which is a key in the extremely simple spatial information scene situation example differs for each spatial information scene situation, the spatial information The scene situation can be specified. (183 in FIG. 44)

前記キーとなる該前記情報を除いた平面画像情報(図44の128・137)は、0.000025秒〜3秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The planar image information (128 and 137 in FIG. 44) excluding the information serving as the key is captured at short intervals such as 0.000025 seconds to 3 seconds, and each spatial information scene situation is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の該前記情報を除いた平面画像情報」(図44の137)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimal spatial information presentation processing is selected (185 in FIG. 46) is further selected. “Plane image information excluding the information on the time axis” ("137" in FIG. 44).

従って、最初から、全ての該前記情報を除いた平面画像情報(図44の128・137)を、細かく情報比較する必要はない。 Therefore, it is not necessary to perform detailed information comparison on the plane image information (128 and 137 in FIG. 44) excluding all the information from the beginning.

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる該前記情報を除いた平面画像情報報(図44の128・137)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 の該前記情報を除いた平面画像情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような空間情報場面状況にも 対応し易い。 The plane image information report (128 and 137 in FIG. 44) excluding the information serving as the fine key is captured at short intervals of 0.000025 seconds to 3 seconds or the like, or in a progressive form, The average value of the spatial information scene situation or the plane image information comparison that excludes the information of the deviation value, the average value or the deviation value + the reference value point that exceeds each α line value as the starting point, the same time A point that falls below the same reference value at intervals can be set as one goal point, and management of relative changes is easier to deal with any spatial information scene situation.

該前記情報を除いた平面画像情報(図44の128・137)の変化は、 該最適空間情報提示の処理の変化と深く関わっているためである。 This is because the change in the plane image information (128 and 137 in FIG. 44) excluding the information is deeply related to the change in the process of presenting the optimum spatial information.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「5感覚別各計測センサー類で観測される各情報」(図44の244・249、245・250、246・251、247・252、248・253)からも検知できる。 In “Presentation of spatial information that can be determined from the contents of the specific A5 sense space information situation” (183 in FIG. 44), “each sensor sensor that is observed by five senses” in the specific A5 sense space information (300 in FIG. 44). Information ”(244, 249, 245, 250, 246, 251, 247, 252, 248, 253 in FIG. 44) can also be detected.

つまり、比較計測される「単位時間の比較 5感覚別各計測センサー類で観測される各情報」(図44の244、245、246、247、248)、もしくは、「定・不定時間の比較 同時・直前・直後の同各5感覚別各計測センサー類で観測される各情報」(図44の244、245、246、247、248)と
比較基となる「時間軸上の5感覚別各計測センサー類で観測される各情報」(図44の249、250、251、252、253)との 情報比較で
5感覚別各計測センサー類で観測される各情報(図44の244・249、245・250、246・251、247・252、248・253)の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
In other words, “Comparison of unit time 5 Information of each measurement sensor measured by sensory sense” (244, 245, 246, 247, 248 in FIG. 44) or “Comparison of constant / indefinite time at the same time”・ "Each information observed by each measurement sensor for each five senses immediately before and after" (244, 245, 246, 247, 248 in FIG. 44) and the comparison basis "each measurement by five senses on the time axis" Each information (244, 249, 245 in FIG. 44) observed by each sensor for each of the five senses in the information comparison with each information observed by the sensors (249, 250, 251, 252, 253 in FIG. 44).・ “Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (in FIG. 44) ・ 250,246,251,247,252,248,253 143) “Decrease” 44 in FIG. 44) “enlarge” (145 in FIG. 44) “reduced” (146 in FIG. 44) “expand” (147 in FIG. 44) “compress” (148 in FIG. 44) “equivalent” (149 in FIG. 44) “Match” (150 in FIG. 44) “Approximation” (151 in FIG. 44) “Similar” (152 in FIG. 44) “Same” (153 in FIG. 44) “Related” (154 in FIG. 44) “Difference” (FIG. 155 of 44) "Intersection" (156 of FIG. 44) "Multilayer" (157 of Fig. 44) "Proximity" (158 of Fig. 44) "Contact" (159 of Fig. 44) "Distant" (160 of Fig. 44) “Separation” (161 in FIG. 44) “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “Breakthrough” (165 in FIG. 44) “Now” (FIG. 44 of 166) “pass” (167 of FIG. 44) “proportional” (219 of FIG. 44) “inverse proportion” (of FIG. 44) 20) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) ) Of “East” (232 in FIG. 44) and “Unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の5感覚別各計測センサー類で観測される各情報」(図44の249、250、251、252、253)とは、
『「過去の確定5感覚別各計測センサー類で観測される各情報」・「現在進行中の5感覚別各計測センサー類で観測される各情報」・「未来変化予側される推定5感覚別各計測センサー類で観測される各情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた5感覚別各計測センサー類で観測される各情報』の内、少なくとも1以上からなる。
“Each information observed by each measurement sensor according to five senses on the time axis” (249, 250, 251, 252, 253 in FIG. 44)
“Each information observed by each measurement sensor according to five senses determined in the past” “Each information observed by each measurement sensor according to five senses currently in progress” “Estimated five senses predicted by future changes Each information observed by each measurement sensor classified by five senses that memorizes or predicts the average value of the approximate class, or the deviation value of the approximate class. ] At least one or more.

「5感覚別各計測センサー類で観測される各情報」は、本特許明細書「用語の説明」の『視覚、もしくは、視覚情報』『聴覚、もしくは、聴覚情報』『嗅覚、もしくは、嗅覚情報』『味覚、もしくは、味覚情報』、および、『触覚、もしくは、触覚情報』に各項目毎内に、記載の事項全ての内、いずれか1以上と同1以上の様々な組み合わせ、もしくは、同重ね合せを、5感覚別各感覚として、カメラ類などの視覚計測センサー類、無音室などの聴覚計測センサー類、嗅覚器などの嗅覚計測センサー類、半導体などの味覚計測センサー類、半導体などの触覚計測センサー類で、各々計測され、各々観測される各々の各情報を指す。 “Each information observed by each sensor sensor by five senses” is “visual or visual information”, “auditory or auditory information”, “olfaction or olfactory information” in the “Explanation of Terms” in this patent specification. ”Taste or taste information” and “Tactile or tactile information” for each item, and any combination of one or more and the same or more The superposition is classified into five sensations for each sense. Visual measurement sensors such as cameras, auditory measurement sensors such as silent rooms, olfactory measurement sensors such as olfactory instruments, taste measurement sensors such as semiconductors, and tactile senses such as semiconductors. Each of the information measured and observed by the measurement sensors.

前記極めて簡単な特定A5感空間情報場面状況例におけるキーとなる5感覚別各計測センサー類で観測される各情報(図44の244・249、245・250、246・251、247・252、248・253)は、各特定A5感空間情報場面状況毎に異なっているため、この差異から、特定A5感空間情報場面状況を特定できることになる。(図44の183) Each information (244, 249, 245, 250, 246, 251, 247, 252, and 248 in FIG. 44) observed by each of the five sensory sensor sensors that are the key in the above-described very simple specific A5 sense space information scene situation example. Since 253) differs for each specific A5 sense space information scene situation, the specific A5 sense space information scene situation can be specified from this difference. (183 in FIG. 44)

前記キーとなる5感覚別各計測センサー類で観測される各情報(図44の244・249、245・250、246・251、247・252、248・253)は、0.000025秒〜2秒等の短時間間隔で捕えられ各特定A5感空間情報場面状況が、確定する。(図44の183) Each information (244, 249, 245, 250, 246, 251, 247, 252, 248, 253 in FIG. 44) observed by each of the five sensory measuring sensors as the keys is 0.000025 seconds to 2 seconds. Each specific A5 sensation spatial information scene situation is confirmed at short intervals such as. (183 in FIG. 44)

各特定A5感空間情報場面状況確定後(図44の183)、最適特定A5感空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の5感覚別各計測センサー類で観測される各情報」(図44の249、250、251、252、253)との情報比較を行う。 After each specific A5 sensation space information scene situation is determined (183 in FIG. 44), which of the processes for presenting the optimum specific A5 sensation space information is selected (185 in FIG. 46). Information comparison with “information observed by each measurement sensor” (249, 250, 251, 252, 253 in FIG. 44) is performed.

従って、最初から、全ての5感覚別各計測センサー類で観測される各情報(図44の244・249、245・250、246・251、247・252、248・253)を、細かく情報比較する必要はない。 Therefore, from the beginning, each piece of information (244, 249, 245, 250, 246, 251, 247, 252, 248, 253 in FIG. 44) that is observed by all five sensory measurement sensors is compared in detail. There is no need.

各特定A5感空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison is sufficient for each specific A5 sense space information scene situation detection (183 in FIG. 44).

前記細かなキーとなる5感覚別各計測センサー類で観測される各情報(図44の244・249、245・250、246・251、247・252、248・253)は、0.000025秒〜2秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その特定A5感空間情報場面状況の平均値、もしくは、偏差値 の5感覚別各計測センサー類で観測される各情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような特定A5感空間情報場面状況にも 対応し易い。 Each information (244, 249, 245, 250, 246, 251, 247, 252, 248, 253 in FIG. 44) observed by each of the five sensory sensor sensors which are the fine keys is 0.000025 seconds to By comparing each information that is captured at short intervals such as 2 seconds, or in the simultaneous progress type, the average value of the specific A5 sensation space information scene situation, or the observation value measured by each sensor sensor according to five senses , Average value, or deviation value + a reference value point that exceeds each α line value as a starting point, and a point that falls below the reference value point at the same short time interval can be set as one goal point. It is easy to cope with any specific A5 sense space information scene situation.

5感覚別各計測センサー類で観測される各情報(図44の244・249、245・250、246・251、247・252、248・253)の変化は、 該最適特定A5感空間情報(図44の300)提示の処理の変化と深く関わっているためである。 Changes in each information (244, 249, 245, 250, 246, 251, 247, 252, 248, 253 in Fig. 44) observed by each sensory sensor by five senses, the optimal specific A5 sensation space information (Fig. This is because it is deeply related to the change in the processing of the presentation.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「人が持つ 私的・地域的・公知的 概念認識情報」(以下、「人認識情報」と 呼称する)(図44の129・215)からも検知できる。 In “Presentation of spatial information that can be judged from the contents of the specific A5 sense space information situation” (183 in FIG. 44), “Private, regional, and publicly known concepts of people” in the specific A5 sense space information (300 in FIG. 44) It can also be detected from “recognition information” (hereinafter referred to as “person recognition information”) (129 and 215 in FIG. 44).

つまり、比較計測される「単位時間の比較人認識情報」(図44の129)、もしくは、「定・不定時間の比較 同時・直前・直後の同各人認識情報」(図44の129)と
比較基となる「時間軸上の人認識情報」(図44の215)との 情報比較で 人認識情報(図44の129・215)の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
That is, “Comparison recognition information per unit time” (129 in FIG. 44) or “Comparison recognition information at the same time, immediately before and immediately after comparison of fixed / indefinite time” (129 in FIG. 44). Compared with “person recognition information on time axis” (215 in FIG. 44) as a comparison basis, “change” (140 in FIG. 44) “repetition” (FIG. 44) of person recognition information (129, 215 in FIG. 44) 44 of 141) “abnormal” (142 of FIG. 44) “increase” (143 of FIG. 44) “decrease” (144 of FIG. 44) “enlarge” (145 of FIG. 44) “shrink” (146 of FIG. 44) “ "Expansion" (147 in Fig. 44) "Compression" (148 in Fig. 44) "Equivalent" (149 in Fig. 44) "Match" (150 in Fig. 44) "Approximation" (151 in Fig. 44) "Similar" (Fig. 44 152) “similar” (153 in FIG. 44) “related” (154 in FIG. 44) “difference” ( 155 of 44) "Intersection" (156 of FIG. 44) "Multilayer" (157 of Fig. 44) "Proximity" (158 of Fig. 44) "Contact" (159 of Fig. 44) "Distant" (160 of Fig. 44) “Separation” (161 in FIG. 44) “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “Reverse” (164 in FIG. 44) “Breakthrough” (165 in FIG. 44) “Now” (FIG. 44 166) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “ “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” (227 in FIG. 44) “Left” (FIG. 44) 228) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (231 in FIG. 44) “East” (in FIG. 44) 32), and, among the "irrelevant" (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の人認識情報」(図44の215)とは、
『「過去の確定人認識情報」・「現在進行中の人認識情報」・「未来変化予側される推定人認識情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた人認識情報』の内、少なくとも1以上からなる。
“Person recognition information on the time axis” (215 in FIG. 44)
"" Past human identification information "," Current human identification information "," Estimated human identification information expected to change in the future ", mean value of similar class, or deviation value of similar class Or at least one or more of the predicted person recognition information ”.

「人認識情報」は、私的経験の常識情報・体験的常識情報・私的常識情報・地域常識情報・国別常識情報・公的経験の常識情報・体験常識情報・歴史観常識情報・公的常識情報・地域別流行常識情報・国別流行常識情報・地理的常識情報、および、公的流行常識情報から、概念を認識できるものがある。 "Personal recognition information" is common sense information for private experience, common sense information for experience, private common sense information, regional common sense information, common sense information for each country, common sense information for public experience, common sense information for experience, common sense information for history, public information Common sense information, regional epidemic common sense information, country epidemic common sense information, geographical common sense information, and public epidemic common sense information, there are those that can recognize the concept.

「前記各常識情報」とは、極めて簡単な例として、人・物・設備・生物・男・女・子供・老人・中年、等の各構成要素情報・各構成要因が、映像情報上の、設定場面状況上で、
1、時間経過上で、ある程度 該各要素情報・各構成要因情報の動きや流れが、定まってい るパターンであること。
2、空間上で、ある程度 該各要素情報・各構成要因情報の各組み合わせ・同重ね合わせ、お
よび、同構成の仕方・同方法の各固まり概念・同集合概念、および、同集積概念が、ある
程度定まっているパターンであること を指す。
“Each common sense information” is a very simple example. Each component information such as people, things, equipment, organisms, men, women, children, the elderly, middle-aged, etc. In the setting scene situation,
1. The movement and flow of each element information and each component information should be fixed to some extent over time.
2. To some extent on the space, each element information / combination factor information combination / same superposition, and how the same configuration / each set concept / same set concept / same concept Indicates that the pattern is fixed.

前記極めて簡単な場面状況例における場合に当てはめると、前記1号は、サッカー・野球における試合運行上の運行上の試合ルール、得点 直前・中・直後時、および、同近似状況時の観客の動きや歓声・得点 直前・中・直後時、および、同近似状況時のカメラ類カット割挿入状況、得点 直前・中・直後時、および、同近似状況時のアナウンサーの声、および、バックグランド音楽が、上げられる。 When applied to the case of the above-mentioned very simple scene situation, the above No. 1 is the game rules on the operation of the game in soccer / baseball, the movement of the spectator immediately before, during and after the score, and in the same situation And cheers / scores The camera cuts are inserted immediately before, during, and immediately after, and in the same situation, the voice of the announcer, and background music immediately before, during, and after the score Raised.

前記極めて簡単な場面状況例における場合に当てはめると、前記2号は、サッカー・野球における試合開始上の競技場の大きさ・芝生の敷き詰め形状・証明塔の形状と数・屋根の有無と形状と色・宣伝用掲示板・得点掲示板・ライン囲みの形状・各選手の服装・同帽子の有無と形状・同靴と靴下・選手人数・審判員数・ベースやゴールの形状・同大きさ・同数・同設置位置・ボールの形状・同大きさ・同数・グローブの有無、および、選手待機室等の各競技種類別規定や特徴が、上げられる。 When applied to the case of the above-mentioned very simple scene situation, the No. 2 is the size of the stadium at the start of the game in soccer / baseball, the lawn laying shape, the shape and number of the proof tower, the presence / absence of the roof and the shape Color / Bulletin board for advertisement / Score board / Shape of the line / Appearance of each player / With / without hat / Shape and socks / Number of athletes / Judges / Shape of base and goal / Same size / same number / same Rules and features for each competition type, such as the installation position, ball shape, size, number, glove presence, and player waiting room, will be raised.

前記極めて簡単な空間情報場面状況例におけるキーとなる該人認識情報(図44の129・215)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183) The person recognition information (129 and 215 in FIG. 44), which is a key in the very simple example of the spatial information scene situation, is different for each spatial information scene situation, so that the spatial information scene situation can be specified from this difference. become. (183 in FIG. 44)

前記キーとなる人認識情報(図44の129・215)は、0.000025秒〜7秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。 The key person recognition information (129, 215 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 7 seconds, and each spatial information scene situation is determined.

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の人認識情報」(図44の215)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimum spatial information presentation processing is selected (185 in FIG. 46), “person recognition information on the time axis” (215 in FIG. 44) is further selected. ) And information comparison.

従って、最初から、全ての人認識情報(図44の129・215)を、細かく情報比較する必要はない。 Therefore, from the beginning, it is not necessary to perform detailed information comparison of all human recognition information (129 and 215 in FIG. 44).

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる人認識情報(図44の129・215)は、0.000025秒〜7秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 の人認識情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような空間情報場面状況にも 対応し易い。 The person recognition information (129, 215 in FIG. 44), which is a fine key, is captured at short intervals such as 0.000025 seconds to 7 seconds, or simultaneously, and the average value of the spatial information scene situation. Or, in the human recognition information comparison of the deviation value, the average value, or the reference value point that exceeds the deviation value + each α line value is the starting point, and the point that falls below the reference value point at the same short time interval is one goal point Management of relative changes is easier to deal with any spatial information scene situation.

人認識情報(図44の129・215)の変化は、 該最適空間情報提示の処理の変化と深く関わっているためである。 This is because the change in the human recognition information (129 and 215 in FIG. 44) is deeply related to the change in the process of presenting the optimum spatial information.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「人が推定できる 私的・地域的・公知的 連想推定情報」(以下、「人推定情報」と 呼称する)(図44の212・216)からも検知できる。 “Presentation of spatial information that can be judged from the contents of the specific A5 sense space information situation” (183 in FIG. 44) includes “People can be estimated private / regional / public in the specific A5 sense space information (300 in FIG. 44)” It can also be detected from “association estimation information” (hereinafter referred to as “person estimation information”) (212 and 216 in FIG. 44).

つまり、比較計測される「単位時間の比較人推定情報」(図44の212)、もしくは、「定・不定時間の比較 同時・直前・直後の同各人推定情報」(図44の212)と
比較基となる「時間軸上の人推定情報」(図44の216)との 情報比較で
In other words, “Comparison estimation information of unit time” (212 in FIG. 44) or “Comparison estimation information of fixed / indefinite time, same person estimation information immediately before / after” (212 in FIG. 44) By comparing information with the “person estimation information on the time axis” (216 in FIG. 44)

人推定情報(図44の212・216)の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “enlarge” (145 in FIG. 44) “shrink” (146 in FIG. 44) “expand” (147 in FIG. 44) “compress” (148 in FIG. 44) “equivalent” (in FIG. 44) 149) “Match” (150 in FIG. 44) “Approximation” (151 in FIG. 44) “Similar” (152 in FIG. 44) “Same” (153 in FIG. 44) “Related” (154 in FIG. 44) “Difference” (155 in FIG. 44) “Intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distal” (in FIG. 44 160) “Separation” (161 in FIG. 44) “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) "Reverse" (164 in FIG. 44) "Breakthrough" (165 in FIG. 44) "Near" (166 in FIG. 44) "Pass" (167 in FIG. 44) "Proportional" (219 in FIG. 44) "Inverse proportion" (FIG. 44 220) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (in FIG. 44) 231) Among “East” (232 in FIG. 44) and “Unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の人推定情報」(図44の216)とは、
『「過去の確定人推定情報」・「現在進行中の人推定情報」・「未来変化予側される推定人推定情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた人推定情報』の内、少なくとも1以上からなる。
“Person estimation information on the time axis” (216 in FIG. 44)
“Memorize“ Past determinant estimate information ”,“ Present person estimate information ”,“ Estimator estimate information predicted to change in the future ”, mean value of similar class or deviation value of similar class Or at least one or more of “estimated human estimated information”.

「人推定情報」は、私的経験の常識情報・体験的常識情報・私的常識情報・地域常識情報・国別常識情報・公的経験の常識情報・体験常識情報・歴史観常識情報・公的常識情報・地域別流行常識情報・国別流行常識情報・地理的常識情報、および、公的流行常識情報から、連想推定できるものがある。 “People Estimated Information” refers to common-sense information for private experience, common-sense information for experience, private-sense information, regional common-sense information, common-sense information by country, common-sense information for public experience, common-sense information for experience, common-sense information for history, public information Common sense information, regional epidemic common sense information, country epidemic common sense information, geographical common sense information, and public epidemic common sense information can be associatively estimated.

「前記各常識情報」とは、極めて簡単な例として、人・物・設備・生物・男・女・子供・老人・中年、等の各構成要素情報・各構成要因が、映像情報上の、設定場面状況上で、
1、時間経過上で、ある程度 該各要素情報・各構成要因情報の動きや流れが、定まってい
るパターンであること。
2、空間上で、ある程度 該各要素情報・各構成要因情報の各組み合わせ・同重ね合わせ、お
よび、同構成の仕方・同方法の各固まり概念・同集合概念、および、同集積概念が、ある
程度定まっているパターンであること を指す。
“Each common sense information” is a very simple example. Each component information such as people, things, equipment, organisms, men, women, children, the elderly, middle-aged, etc. In the setting scene situation,
1. The movement and flow of each element information and each component information should be fixed to some extent over time.
2. To some extent on the space, each element information / combination factor information combination / same superposition, and how the same configuration / each set concept / same set concept / same concept Indicates that the pattern is fixed.

前記極めて簡単な場面状況例における場合に当てはめると、前記1号は、サッカー・野球における試合運行上の運行上の試合ルール、得点 直前・中・直後時、および、同近似状況時の観客の動きや歓声・得点 直前・中・直後時、および、同近似状況時のカメラ類カット割挿入状況、得点 直前・中・直後時、および、同近似状況時のアナウンサーの声、および、バックグランド音楽時間的経過途中の流れから、次の展開である次の流れとしての1定の連想でき、推定される 時間的定まった流れ・同展開を、想起すことが、可能となる事が挙げられる。   When applied to the case of the above-mentioned very simple scene situation, the above No. 1 is the game rules on the operation of the game in soccer / baseball, the movement of the spectator immediately before, during and after the score, and in the same situation And cheers / scores Just before / medium / immediately, and camera cut cuts inserted in the same situation, announcer's voice and background music time just before, middle / immediately, and in the same situation From the flow in the middle of the course, it is possible to associate a certain constant as the next flow, which is the next development, and to be able to recall the estimated time-determined flow / development.

前記極めて簡単な場面状況例における場合に当てはめると、前記2号は、サッカー・野球における試合開始上の競技場の大きさ・芝生の敷き詰め形状・証明塔の形状と数・屋根の有無と形状と色・宣伝用掲示板・得点掲示板・ライン囲みの形状・各選手の服装・同帽子の有無と形状・同靴と靴下・選手人数・審判員数・ベースやゴールの形状・同大きさ・同数・同設置位置・ボールの形状・同大きさ・同数・グローブの有無、および、選手待機室等の各競技種類別規定や特徴の各概念各連結事項途中経過の流れから、次の連結事項展開である次の関連連結事項としての1定の連結連鎖の連想ができ、同推定される 各概念事項連結方法の定まった締結方法のパターン・同締結展開パターンを、想起すことが、可能となる事が挙げられる。   When applied to the case of the above-mentioned very simple scene situation, the No. 2 is the size of the stadium at the start of the game in soccer / baseball, the lawn laying shape, the shape and number of the proof tower, the presence / absence of the roof and the shape Color / Bulletin board for promotion / Score board / Shape of line box / Each player's clothing / Hat cap / Shoe shape / Shoes and socks / Number of players / Judges / Base and goal shape / Same size / Same number / Same From the installation position, ball shape, same size, same number, presence / absence of gloves, rules for each type of competition such as player waiting room, etc. It is possible to associate a fixed connection chain as the next related connection item, and it is possible to recall the fastening method pattern and the fastening development pattern in which each of the estimated concept item connection methods is fixed. Can be mentioned.

前記極めて簡単な空間情報場面状況例におけるキーとなる人推定情報(図44の212・216)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183) Since the person estimation information (212 and 216 in FIG. 44) that is a key in the extremely simple spatial information scene situation example is different for each spatial information scene situation, it is possible to specify the spatial information scene situation from this difference. Become. (183 in FIG. 44)

前記キーとなる人推定情報(図44の212・216)は、0.000025秒〜7秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The person estimation information (212 and 216 in FIG. 44) as a key is captured at short intervals such as 0.000025 seconds to 7 seconds, and each spatial information scene situation is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の人推定情報」(図44の216)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimal spatial information presentation processing is selected (185 in FIG. 46), “person estimated information on the time axis” (216 in FIG. 44) is further selected. ) And information comparison.

従って、最初から、全ての人推定情報(図44の212・216)を、細かく情報比較する必要はない。 Therefore, it is not necessary to perform detailed information comparison of all human estimation information (212 and 216 in FIG. 44) from the beginning.

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる人推定情報(図44の212・216)は、0.000025秒〜7秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 の人推定情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような空間情報場面状況にも 対応し易い。 The human estimated information (212 and 216 in FIG. 44), which is a fine key, is captured at short intervals such as 0.000025 seconds to 7 seconds, or simultaneously, and the average value of the spatial information scene situation. Or, in the comparison of human estimated information of deviation value, the average value or the deviation value + the reference value point that exceeds each α line value is the starting point, and the point that falls below the reference value point at the same short time interval is one goal point Management of relative changes is easier to deal with any spatial information scene situation.

人推定情報(図44の212・216)の変化は、 該最適空間情報提示の処理の変化と深く関わっているためである。 This is because the change in the person estimation information (212 and 216 in FIG. 44) is deeply related to the change in the process of presenting the optimum spatial information.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」(以下、「制御類情報」と 呼称する)(図44の213・217)からも検知できる。 In “Presentation of spatial information that can be determined from the contents of the specific A5 sense space information status” (183 in FIG. 44), “Control section / control device / control device / control” in the specific A5 sense space information (300 in FIG. 44) It can also be detected from “any processing information of the system” (hereinafter referred to as “control information”) (213 and 217 in FIG. 44).

つまり、比較計測される「単位時間の比較制御類情報」(図44の213)、もしくは、「定・不定時間の比較 同時・直前・直後の同各制御類情報」(図44の213)と
比較基となる「時間軸上の制御類情報」(図44の217)との 情報比較で
That is, “Comparison control information of unit time” (213 in FIG. 44) or “Comparison control information of constant / indefinite time at the same time, immediately before and immediately after” (213 in FIG. 44) Compare information with “control information on time axis” (217 in FIG. 44)

制御類情報(図44の213・217)の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” (144 in FIG. 44) “enlarge” (145 in FIG. 44) “shrink” (146 in FIG. 44) “expand” (147 in FIG. 44) “compress” (148 in FIG. 44) “equivalent” (in FIG. 44) 149) “Match” (150 in FIG. 44) “Approximation” (151 in FIG. 44) “Similar” (152 in FIG. 44) “Same” (153 in FIG. 44) “Related” (154 in FIG. 44) “Difference” (155 in FIG. 44) “Intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distal” (in FIG. 44) 160) “Separation” (161 in FIG. 44) “Inclination” (162 in FIG. 44) “Rotation” (163 in FIG. 44) "Reverse" (164 in FIG. 44) "Breakthrough" (165 in FIG. 44) "Near" (166 in FIG. 44) "Pass" (167 in FIG. 44) "Proportional" (219 in FIG. 44) "Inverse proportion" (FIG. 44 220) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (in FIG. 44) 231) Among “East” (232 in FIG. 44) and “Unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の制御類情報」(図44の217)とは、
『「過去の確定制御類情報」・「現在進行中の制御類情報」・「未来変化予側される推定制御類情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた制御類情報』の内、少なくとも1以上からなる。
"Control information on the time axis" (217 in FIG. 44)
“Memorize“ Past definite control class information ”,“ Current control class information ”,“ Estimated control class information predicted for future change ”, Average value of similar class, or Deviation value of similar class Or control type information predicted and stored ”.

「制御類情報」は、本特許明細書記載の用語の説明内の『平面画像情報』の規定内の情報制御情報を 示し、同用語の説明内の『処理情報』内の制御規定を指す、前記範疇内での前記同用語の説明内の『5感覚情報』の規定で、制御を必要とするものを指す。 `` Control class information '' indicates information control information in the definition of `` planar image information '' in the explanation of terms described in this patent specification, and indicates control regulations in the `` processing information '' in the explanation of the terms. The term “5 sensory information” in the explanation of the same term in the category refers to the one requiring control.

前記極めて簡単な空間情報場面状況例におけるキーとなる制御類情報(図44の213・217)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183)  Since the control class information (213 and 217 in FIG. 44) that is a key in the extremely simple spatial information scene situation example is different for each spatial information scene situation, the spatial information scene situation can be specified from this difference. Become. (183 in FIG. 44)

前記キーとなる制御類情報(図44の213・217)は、0.000025秒〜3秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The key control information (213 and 217 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 3 seconds, and each spatial information scene situation is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の制御類情報」(図44の217)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimum spatial information presentation processing is selected (185 in FIG. 46), “control information on the time axis” (217 in FIG. 44) is further selected. ) And information comparison.

従って、最初から、全ての制御類情報(図44の213・217)を、細かく情報比較する必要はない。 Therefore, from the beginning, it is not necessary to perform detailed information comparison of all control class information (213 and 217 in FIG. 44).

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる制御類情報(図44の213・217)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、その空間情報場面状況の平均値、もしくは、偏差値 の制御類情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような空間情報場面状況にも 対応し易い。 The control information (213 and 217 in FIG. 44) as the fine key is captured at short intervals of 0.000025 seconds to 3 seconds or the like, or is an average value of the spatial information scene situation in a progressive manner. Or, in the control value information comparison of the deviation value, the average value or the deviation value + the reference value point that exceeds each α line value is set as the starting point, and the point that falls below the reference value point at the same short time interval is one goal point Management of relative changes is easier to deal with any spatial information scene situation.

制御類情報(図44の213・217)の変化は、 該最適空間情報提示の処理の変化と深く関わっているためである。 This is because the change in the control class information (213 and 217 in FIG. 44) is deeply related to the change in the optimum spatial information presentation process.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の「コンピュータプログラム言語情報の処理情報」(以下、「言語情報」と 呼称する)(図44の214・218)からも検知できる。 “Presentation of spatial information that can be determined from the contents of the specific A5 sense space information situation” (183 in FIG. 44) includes “processing information of computer program language information” (hereinafter “300” in FIG. 44). (Referred to as “language information”) (214 and 218 in FIG. 44).

つまり、比較計測される「単位時間の比較 言語情報」(図44の214)、もしくは、「定・不定時間の比較 同時・直前・直後の同各言語情報」(図44の214)と
比較基となる「時間軸上の言語情報」(図44の218)との 情報比較で
That is, “Comparison language information of unit time” (214 in FIG. 44) or “Comparison information of constant / indefinite time, same language information immediately before / after” (214 in FIG. 44) and comparison basis. The information comparison with “Language information on the time axis” (218 in FIG. 44)

言語情報(図44の214・218)の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (143 in FIG. 44) “Decrease” in the language information (214 and 218 in FIG. 44) (144 in FIG. 44) “Enlarge” (145 in FIG. 44) “Shrink” (146 in FIG. 44) “Extension” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (149 in FIG. 44) 44) “match” (150 in FIG. 44) “approximate” (151 in FIG. 44) “similar” (152 in FIG. 44) “similar” (153 in FIG. 44) “related” (154 in FIG. 44) “difference” ( 155 in FIG. 44) “Intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) ) “Separation” (161 in FIG. 44) “Tilt” (162 in FIG. 44) “Rotation” (163 in FIG. 44) “ 44 (164 in FIG. 44) “Breakthrough” (165 in FIG. 44) “Now” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (FIG. 44) 220) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) “Down” (226 in FIG. 44) “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” (in FIG. 44) 231) Among “East” (232 in FIG. 44) and “Unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

「時間軸上の言語情報」(図44の218)とは、
『「過去の確定言語情報」・「現在進行中の言語情報」・「未来変化予側される推定言語情報」、同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた言語情報』の内、少なくとも1以上からなる。
“Language information on the time axis” (218 in FIG. 44) is
“Memorize“ Last past language information ”,“ Current language information in progress ”,“ Estimated language information predicted to change in the future ”, average value of similar class, or deviation value of similar class, or It is composed of at least one of “predicted and stored language information”.

「言語情報」は、本特許明細書記載の用語の説明内の『平面画像情報』の規定内の「言語情報」を 示し、同用語の説明内の『処理情報』内の処理規定を指す、前記範疇内での前記同用語の説明内の『5感覚情報』の規定で、「言語情報」を必要とするものを指す。 “Language information” indicates “Language information” in the definition of “Plane image information” in the explanation of terms described in this patent specification, and indicates the processing regulations in “Processing information” in the explanation of the terms. The term “5 sensory information” in the explanation of the same term in the category refers to the one requiring “language information”.

前記極めて簡単な言語出現空間情報場面状況例におけるキーとなる言語情報(図44の214・218)は、各空間情報場面状況毎に異なっているため、この差異から、空間情報場面状況を特定できることになる。(図44の183) The language information (214 and 218 in FIG. 44) which is a key in the extremely simple language appearance spatial information scene situation example is different for each spatial information scene situation, and from this difference, the spatial information scene situation can be specified. become. (183 in FIG. 44)

前記キーとなる言語情報(図44の214・218)は、0.000025秒〜3秒等の短時間間隔で捕えられ各空間情報場面状況が、確定する。(図44の183) The key language information (214 and 218 in FIG. 44) is captured at short intervals such as 0.000025 seconds to 3 seconds, and each spatial information scene situation is determined. (183 in FIG. 44)

各空間情報場面状況確定後(図46の183)、最適空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく「時間軸上の言語情報」(図44の218)との情報比較を行う。 After each spatial information scene situation is determined (183 in FIG. 46), which of the optimum spatial information presentation processing is selected (185 in FIG. 46), or more detailed “language information on the time axis” (218 in FIG. 44). Compare information with.

従って、最初から、全ての言語情報(図44の214・218)を、細かく情報比較する必要はない。 Therefore, it is not necessary to make detailed information comparison of all language information (214 and 218 in FIG. 44) from the beginning.

各空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison for each spatial information scene situation detection (183 in FIG. 44) is sufficient.

前記細かなキーとなる言語情報(図44の214・218)は、0.000025秒〜3秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その空間情報場面状況の平均値、もしくは、偏差値 の言語情報比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような空間情報場面状況にも 対応し易い。 The linguistic information (214 and 218 in FIG. 44), which is a fine key, is captured at short intervals such as 0.000025 seconds to 3 seconds, or simultaneously, and the average value of the spatial information scene situation, Or, by comparing linguistic information of deviation values, the average value or the reference value point that exceeds the deviation value + each α line value can be used as the starting point, and the point that falls below the reference value point at the same short time interval can be set as one goal point. The relative change management is easier to deal with any spatial information scene situation.

言語情報(図44の214・218)の変化は、 該最適空間情報提示の処理の変化と深く関わっているためである。 This is because the change in the language information (214 and 218 in FIG. 44) is deeply related to the change in the process of presenting the optimum spatial information.

「特定A5感空間情報状況内容から判断できる空間情報提示」(図44の183)には、特定A5感空間情報内(図44の300)の『前記述べた各情報の「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」』(以下、「前述の1以上情報」と呼称)(図44の130・139)からも検知できる。 In the “presentation of spatial information that can be determined from the content of the specific A5 sense space information status” (183 in FIG. 44), “1 or more of each of the above-described information” in the specific A5 sense space information (300 in FIG. 44). It can also be detected from the above-mentioned various combinations or information consisting of one or more various superpositions ”(hereinafter referred to as“ the above-mentioned one or more information ”) (130 and 139 in FIG. 44).

つまり、比較計測される『単位時間の比較「前述の1以上情報」』(図44の130)、もしくは、『定・不定時間の比較 同時・直前・直後の同各「前述の1以上情報」』(図44の130)と
比較基となる『時間軸上の「前述の1以上情報」』(図44の139)との 情報比較で
In other words, “comparison of unit time“ one or more information mentioned above ”” (130 in FIG. 44) or “comparison of constant / indefinite time, each of the above mentioned one or more information” at the same time, immediately before, and immediately after. (130 in FIG. 44) and the comparison base ““ One or more of the above-mentioned information ”on the time axis” (139 in FIG. 44)

「前述の1以上情報」(図44の130・139)の「変化」(図44の140)「繰り返し」(図44の141)「異変」(図44の142)「増加」(図44の143)「減少」(図44の144)「拡大」(図44の145)「縮小」(図44の146)「伸張」(図44の147)「圧縮」(図44の148)「同等」(図44の149)「一致」(図44の150)「近似」(図44の151)「類似」(図44の152)「同類」(図44の153)「関連」(図44の154)「差異」(図44の155)「交差」(図44の156)「重層」(図44の157)「近接」(図44の158)「接触」(図44の159)「遠接」(図44の160)「離反」(図44の161)「傾斜」(図44の162)「回転」(図44の163)「反転」(図44の164)「突き破り」(図44の165)「目前」(図44の166)「通過」(図44の167)「比例」(図44の219)「反比例」(図44の220)「高」(図44の221)「低」(図44の222)「大」(図44の223)「小」(図44の224)「上」(図44の225)「下」(図44の226)「右」(図44の227)「左」(図44の228)「北」(図44の229)「南」(図44の230)「西」(図44の231)「東」(図44の232)、および、「無関係」(図44の168)の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」(図44の169)、もしくは、「同比較情報を同時進行で検出する処理情報」(図44の170)で、検出することができる。
“Change” (140 in FIG. 44) “Repetition” (141 in FIG. 44) “Abnormal” (142 in FIG. 44) “Increase” (130 in FIG. 44) 143) “Decrease” (144 in FIG. 44) “Enlarge” (145 in FIG. 44) “Shrink” (146 in FIG. 44) “Extension” (147 in FIG. 44) “Compression” (148 in FIG. 44) “Equivalent” (149 in FIG. 44) “Match” (150 in FIG. 44) “Approximation” (151 in FIG. 44) “Similar” (152 in FIG. 44) “Same” (153 in FIG. 44) “Relevant” (154 in FIG. 44) ) “Difference” (155 in FIG. 44) “Intersection” (156 in FIG. 44) “Multilayer” (157 in FIG. 44) “Proximity” (158 in FIG. 44) “Contact” (159 in FIG. 44) “Distant” (160 in FIG. 44) “Separation” (161 in FIG. 44) “Inclination” (162 in FIG. 44) “Rotation” (FIG. 44) 163) “Reverse” (164 in FIG. 44) “Breakthrough” (165 in FIG. 44) “Near” (166 in FIG. 44) “Pass” (167 in FIG. 44) “Proportional” (219 in FIG. 44) “Inverse proportion” (220 in FIG. 44) “High” (221 in FIG. 44) “Low” (222 in FIG. 44) “Large” (223 in FIG. 44) “Small” (224 in FIG. 44) “Up” (225 in FIG. 44) ) “Down” (226 in FIG. 44) “Right” (227 in FIG. 44) “Left” (228 in FIG. 44) “North” (229 in FIG. 44) “South” (230 in FIG. 44) “West” ( 44) 231) “East” (232 in FIG. 44) and “Unrelated” (168 in FIG. 44),
"Processing information for detecting and comparing at least one or more, various combinations of one or more, or one or more various overlays" (169 in FIG. 44), or "Processing for detecting the same comparison information simultaneously." It can be detected by “information” (170 in FIG. 44).

『時間軸上の「前述の1以上情報」』(図44の139)とは、
『「過去の確定「前述の1以上情報」』・『現在進行中の「前述の1以上情報」』・『未来変化予側される推定「前述の1以上情報」』、『同近似類の平均値、もしくは、同近似類の偏差値を 記憶、もしくは、予測記憶させた「前述の1以上情報」』からなる。
“The above-mentioned one or more information” on the time axis (139 in FIG. 44)
"" Past Confirmation "One or more information mentioned above""," Currently "One or more information mentioned above""," Estimated future change "Predicted one or more information""," It consists of “the above-mentioned one or more information” in which the average value or the deviation value of the same class is stored or predicted.

前記極めて簡単な特定A5感空間情報場面状況例におけるキーとなる「前述の1以上情報」(図44の130・139)は、各特定A5感空間情報場面状況毎に異なっているため、この差異から、特定A5感空間情報場面状況を特定できることになる。(図44の183)  The above-mentioned “one or more information” (130 and 139 in FIG. 44), which is a key in the very simple specific A5 sense space information scene situation example, is different for each specific A5 sense space information scene situation. Therefore, the specific A5 sense space information scene situation can be specified. (183 in FIG. 44)

前記キーとなる「前述の1以上情報」(図44の130・139)は、0.000025秒〜7秒等の短時間間隔で捕えられ各特定A5感空間情報場面状況が、確定する。(図44の183) The above-mentioned “one or more information” (130 and 139 in FIG. 44), which is the key, is captured at short intervals such as 0.000025 seconds to 7 seconds, and each specific A5 sense space information scene situation is determined. (183 in FIG. 44)

各特定A5感空間情報場面状況確定後(図46の183)、最適特定A5感空間情報提示の処理のどれを選択する(図46の185)か、更に、細かく『時間軸上の「前述の1以上情報」』との情報(図44の139)比較を行う。 After each specific A5 sensation space information scene situation is determined (183 in FIG. 46), which of the optimal specific A5 sensation space information presentation processing is selected (185 in FIG. 46) is further described in detail on the “time axis” described above. The information (139 in FIG. 44) is compared with “one or more information”.

従って、最初から、全ての「前述の1以上情報」(図44の130・139)を、細かく情報比較する必要はない。 Therefore, from the beginning, it is not necessary to make detailed information comparison of all “the above-mentioned one or more information” (130 and 139 in FIG. 44).

各特定A5感空間情報場面状況検知(図44の183)のための、大まかで、浅く、処理速度が速い情報比較で、事足りる。 A rough, shallow, and high-speed information comparison is sufficient for each specific A5 sense space information scene situation detection (183 in FIG. 44).

前記細かなキーとなる「前述の1以上情報」(図44の130・139)は、0.000025秒〜7秒等の短時間間隔で捕えられ、もしくは、同時進行形で、 その特定A5感空間情報場面状況の平均値、もしくは、偏差値 の「前述の1以上情報」比較で、平均値、もしくは、偏差値+各αライン値を超えた基準値点を スタート地点とし 同短時間 間隔で同基準値点を下回る点を 1ゴール地点にでき、相対的変化の管理の方が、どのような特定A5感空間情報場面状況にも 対応し易い。 The above-mentioned one or more information (130 and 139 in FIG. 44), which is a fine key, is captured at short intervals such as 0.000025 seconds to 7 seconds, or simultaneously, and its specific A5 feeling In the comparison of the average value of the spatial information scene situation or the above-mentioned “one or more information” of the deviation value, the reference value point that exceeds the average value or deviation value + each α line value is used as the starting point at the same short time interval. A point below the reference value point can be set as one goal point, and management of relative change is easier to deal with any specific A5 sense space information scene situation.

「前述の1以上情報」(図44の130・139)の変化は、 該最適特定A5感空間情報提示の処理の変化と深く関わっているためである。 This is because the change in the above-mentioned one or more information (130 and 139 in FIG. 44) is deeply related to the change in the process of presenting the optimal specific A5 sense space information.

以上により、細かく場面状況を確定し(図44の183)、5感覚情報の反応処理空間選択・5感覚情報の反応処理空間数選択・同空間内の反応処理部位置選択・同空間内の反応処理部箇所数選択・同空間内の反応処理位置選択・同空間内の反応処理箇所数選択・同空間内の反応処理時期選択・同空間内の反応処理時間選択・同空間内の反応処理回数選択・同空間内の反応処理レベル選択・同空間内の反応処理運用プログラム選択(図46の185)・同空間内の反応処理修正プログラム選択(図46の185)、および、その他の同空間内の情報処理選択(図46の185)を、各選択確定するため、(図46の185) As described above, the scene situation is finely determined (183 in FIG. 44), selection of reaction processing space for five sensory information, selection of number of reaction processing space for five sensory information, selection of position of reaction processing unit in the same space, reaction in the same space Selection of number of processing parts ・ Selection of reaction processing position in the same space ・ Selection of number of reaction processing in the same space ・ Selection of reaction processing time in the same space ・ Selection of reaction processing time in the same space ・ Number of reaction processing in the same space Selection ・ Reaction processing level selection in the same space ・ Reaction processing operation program selection in the same space (185 in FIG. 46) ・ Reaction processing modification program selection in the same space (185 in FIG. 46), and other in the same space In order to confirm each selection of the information processing selection (185 in FIG. 46), (185 in FIG. 46)

細やかな特定A5感空間情報の場面状況確定(図46の183)→ Detailed scene status confirmation of specific A5 sense space information (183 in FIG. 46) →

認識、もしくは、推定最適5感覚情報の反応処理選択と確定(図46の185)→ Recognition or selection and confirmation of estimated optimal 5 sensory information reaction process (185 in FIG. 46) →

認識、もしくは、推定最適5感覚情報の反応処理空間選択と確定→ Recognize or select reaction processing space for the estimated optimal 5 sensory information and confirm →

認識、もしくは、推定最適5感覚情報の反応処理空間数選択と確定→ Select or confirm the number of reaction processing spaces for recognition or estimated optimal 5 sensory information →

同空間内の認識、もしくは、推定最適反応処理部位置選択と確定→ Recognition in the same space, or selection and confirmation of estimated optimal reaction processing unit position →

同空間内の認識、もしくは、推定最適反応処理部箇所数選択と確定→ Recognize in the same space, or select and confirm the number of estimated optimal reaction processing parts →

同空間内の認識、もしくは、推定最適反応処理位置選択と確定→ Recognition in the same space, or selection and confirmation of estimated optimal reaction processing position →

同空間内の認識、もしくは、推定最適反応処理箇所数選択と確定→ Recognition in the same space, or selection and confirmation of the number of estimated optimal reaction processing points →

同空間内の認識、もしくは、推定最適反応処理時期選択と確定→ Recognition in the same space or selection and confirmation of estimated optimal reaction processing time →

同空間内の認識、もしくは、推定最適反応処理時間選択と確定→ Recognition within the same space or selection and confirmation of estimated optimal reaction processing time →

同空間内の認識、もしくは、推定最適反応処理回数選択と確定→ Recognition in the same space, or selection and confirmation of estimated optimal reaction processing count →

同空間内の認識、もしくは、推定最適反応処理レベル選択と確定→ Recognition within the same space, or selection and confirmation of estimated optimal reaction processing level →

同空間内の認識、もしくは、推定最適反応処理運用プログラム選択と確定(図46の185)→ Recognition in the same space, or selection and confirmation of estimated optimal reaction processing operation program (185 in FIG. 46) →

同空間内の認識、もしくは、推定最適反応処理修正プログラム選択と確定(図46の185)→ Recognition in the same space, or selection and confirmation of the estimated optimal reaction processing correction program (185 in FIG. 46) →

その他の同空間内の認識、もしくは、推定最適情報処理選択と確定(図46の185) Other recognition in the same space, or selection and determination of estimated optimum information processing (185 in FIG. 46)

《「確定された最適な両形融合画像情報の処理」・(図46の171)
「確定された最適な両組融合画像情報の処理」・(図46の172)
「確定された最適な両形組融合画像情報の処理」・(図46の173)
「確定された最適な両離輻輳融合画像情報の処理」・(図46の174)
「確定された最適な画像情報の処理」・(図46の175)
「確定された最適な視覚情報の処理」・(図46の234)
「確定された最適な聴覚情報の処理」・(図46の176)
「確定された最適な嗅覚情報の処理」・(図46の177)
「確定された最適な触覚情報の処理」・(図46の178)
「確定された最適な味覚情報の処理」・(図46の179)
「確定された最適なA動画群情報の処理」・(図46の335)
「確定された最適な5感覚計測センサー類情報の処理」・(図46の336)
「確定された最適なカメラ類撮影状況情報の処理」・(図46の235)
「確定された最適な人が認識できる 私的・地域的・公知的 概念認識情報の処理」・(図46の236)
「確定された最適な人が推定できる 私的・地域的・公知的 連想推定情報の処理」・(図46の237)
「確定された最適な制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理」(図46の238)、 および、
「確定された最適なコンピュータプログラム言語情報の処理」(図46の239)の内、
「確定された最適ないずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報」(図46の180)》
が、行われる。
<<"Processing of Confirmed Optimal Bimorphic Fusion Image Information" (171 in FIG. 46)
“Processing of the determined optimal image information of both sets of fusions” (172 in FIG. 46)
“Processing of the determined optimal bimodal image information” (173 in FIG. 46)
“Processing of the confirmed optimal both-vergence fusion image information” (174 in FIG. 46)
“Processing of determined optimal image information” (175 in FIG. 46)
“Processing of the determined optimal visual information” (234 in FIG. 46)
“Processing of confirmed optimal auditory information” (176 in FIG. 46)
“Processing of the confirmed optimal olfactory information” (177 in FIG. 46)
“Processing of the determined optimal tactile information” (178 in FIG. 46)
“Processing of determined optimal taste information” (179 in FIG. 46)
“Processing of the confirmed optimal A movie group information” (335 in FIG. 46)
“Processing of the determined optimal 5-sensory sensor information” (336 in FIG. 46)
“Processing of the determined optimal camera state information” (235 in FIG. 46)
"Processing of private, regional, and publicly known concept recognition information that can be recognized by the best determined person" (236 in Fig. 46)
“Private / Regional / Private Associative Estimate Information Processing that can Estimate the Optimal Person Determined” (237 in FIG. 46)
“Processing of processing information of any determined optimal control section / control device / control device / control system” (238 in FIG. 46), and
“Processing of the determined optimal computer program language information” (239 in FIG. 46),
"Processing information comprising any one or more of the determined optimum, various combinations of the same one or more, or one or more of various overlays" (180 in FIG. 46) >>
Is done.

時間的・空間的に、特定A5感空間情報内(図44の300)のどの情報が、どの情報と どの様に、どう関わり、どう変るかで、どの様な、5感覚情報が、刺激感応(刺激空間・刺激空間数・同空間内の刺激感応処理部位置・同空間内の刺激感応処理部箇所数・同空間内の刺激位置・同空間内の刺激箇所数・同空間内の刺激時期・同空間内の刺激時間・同空間内の刺激回数、および、同空間内の刺激レベル状況)しているかが、概念認識、もしくは、連想推定され、特定A5感空間情報の状況(図44の183)が、理解でき、対応反応すべき最適の5感覚の反応処理情報を 逐次選択(図46の185)し、最適5感覚情報の反応処理空間を選択し、同5感覚情報の最適反応処理空間数を選択し、同5感覚情報の最適反応処理部位置を選択し、同5感覚情報の最適反応処理部箇所数を選択し、同5感覚情報の最適反応処理位置を選択し、同5感覚情報の最適反応処理箇所数を選択し、同5感覚情報の最適反応処理時期を選択し、同5感覚情報の最適反応処理時間を選択し、同5感覚情報の最適反応処理回数を選択し、同5感覚情報の最適反応処理レベルを選択し、同5感覚情報の最適反応処理運用プログラムを選択し(図46の185)、同5感覚情報の最適反応処理修正プログラムを選択し(図46の185)、および、その他の最適情報処理を選択し(図46の185)、1以上の最適の各情報の反応再実行処理を 行うことが選択・決定され(図46の185)、逐次実行される。(図46の171〜179・233〜239・335・336・180)   In terms of time and space, which information in the specific A5 sensation space information (300 in FIG. 44) is related to which information, how, how and how it changes, and what 5 sensory information is stimulus-sensitive (Stimulation space, number of stimulation spaces, position of stimulation sensitive processing section in the same space, number of stimulation sensitive processing sections in the same space, position of stimulation in the same space, number of stimulation places in the same space, timing of stimulation in the same space 44. Whether the stimulation time in the same space, the number of stimulations in the same space, and the stimulation level situation in the same space) is conceptually recognized or associatively estimated, and the situation of specific A5 sense space information (in FIG. 44) 183) can understand and respond to the optimal five sensory response processing information in succession (185 in FIG. 46), select the optimal five sensory information reaction processing space, and select the optimal five sensory information response processing. Select the number of spaces and select the optimal reaction processing part position for the same 5 sensory information Select the optimal response processing part number of the same 5 sensory information, select the optimal response processing position of the same 5 sensory information, select the optimal response processing part number of the same 5 sensory information, and select the optimal response of the 5 sensory information. Select the processing time, select the optimal response processing time for the same 5 sensory information, select the optimal number of response processes for the 5 sensory information, select the optimal response processing level for the 5 sensory information, The optimum reaction processing operation program is selected (185 in FIG. 46), the optimum reaction processing correction program for the five sensory information is selected (185 in FIG. 46), and other optimum information processing is selected (185 in FIG. 46). ) It is selected / determined to execute the reaction re-execution process for one or more pieces of optimum information (185 in FIG. 46), and is executed sequentially. (171-179 / 233-239 / 335/336/180 in FIG. 46)

次に、「前記選択と確定の反応処理実行」(図46の171〜179・233〜239・335・336・180)選択実行により、
「特定A5感空間情報状況内容(図46の183)から判断できる最適特定A5感空間情報提示」(図46の186)を、最終的に、特定A5感空間情報内の反応5感覚情報(視覚・聴覚・嗅覚・味覚・触覚)として、最適に・快適に 反応作動させ、特定A5感空間情報内に求められている忠実で、的確な「最適 特定A5感空間情報状況場面を考え、的確な反応作動を、処理実行する高度で、特定A5感空間情報を 携えた立体画像情報保持物・画像情報立体化処理装置・立体画像情報処理装置」が実現できる。(図46の186)
Next, by “Selection and confirmation reaction processing execution” (171 to 179, 233 to 239, 335, 336, and 180 in FIG. 46) selection execution,
“Optimum specific A5 sensation space information presentation that can be determined from the specific A5 sensation space information status content (183 in FIG. 46)” (186 in FIG. 46) is finally changed to the reaction 5 sense information (visual) in the specific A5 sensation space information・ Actuate optimally and comfortably as auditory, olfactory, taste, and tactile sensations, and consider the faithful and precise “optimal specific A5 sensation space information situation situation that is required in the specific A5 sensation space information. It is possible to realize a 3D image information holding object / image information 3D processing apparatus / stereoscopic image information processing apparatus with a specific A5 sensation space information at a high level for executing the reaction operation. (186 in FIG. 46)

前段記載事項行為から、特定A5感空間情報の空間情報場面状況を特定し(図46の183)、同確定後、最適特定A5感空間情報提示の処理の選択と、決定(図46の185)、同処理の実行(図46の171〜180・234〜239・335・336)が、選択実行される。   The spatial information scene situation of the specific A5 sense space information is specified from the action described in the previous stage (183 in FIG. 46). After the determination, selection and determination of the process of presenting the optimal specific A5 sense space information is made (185 in FIG. 46). The execution of the process (171 to 180, 234 to 239, 335, and 336 in FIG. 46) is selectively executed.

最適特定A5感空間情報提示の処理(図46の183)には、以上に述べた通りであるが、「映像情報内容から判断できる最適空間情報提示」(図40の182)と、多くが重複する、5感覚情報を 空間情報内で、応用処理すること以外に、新たに加わっている
「確定された最適な5感覚計測センサー類情報の処理」(図46の336)・
「確定された最適なA動画群情報の処理」(図46の335)
に付いて、以下に、述べたい。
As described above, the optimal specific A5 sense space information presentation process (183 in FIG. 46) is the same as the “optimum spatial information presentation that can be determined from the video information content” (182 in FIG. 40). In addition to applying the 5 sensory information in the spatial information, the newly added “Processing of the confirmed optimal 5 sensory sensor information” (336 in FIG. 46).
“Processing of the determined optimal A movie group information” (335 in FIG. 46)
I would like to say below.

「確定された最適な5感覚計測センサー類情報の処理」(図46の336)
では、同センサーの計測(図43の317)を、計測停止・計測位置空間移動・計測位置回転移動・計測追尾・計測続行・計測休止、および、「計測値変更(高低・増減・左右・上下・前後・遠近・斜め・大小・拡大縮小、および、伸張圧縮以上の1以上と同1以上の組み合わせ、もしくは、同重ね合わせによる計測値の変更)による計測位置空間移動・計測位置回転移動・計測追尾・計測続行・計測休止」を、時間軸上で、選択された特定A5感空間情報内(図43の317と334の重複部分)で、最適な反応処理を 処理実行する事が、極めて簡単な例として、挙げられる。
“Processing of the determined optimal 5-sensory sensor information” (336 in FIG. 46)
Then, the measurement of the same sensor (317 in FIG. 43) is stopped, measurement position space movement, measurement position rotation movement, measurement tracking, measurement continuation, measurement pause, and “measurement value change (high / low / increase / left / right / up / down)・ Measurement position space movement / measurement position rotation movement / measurement by front / rear / perspective / diagonal / large / small / enlargement / reduction, and combination of one or more of the same or more than expansion / compression, or change of measurement values by superimposition) “Tracking / Continue measurement / Suspend measurement” on the time axis within the selected specific A5 sensation space information (the overlapping part of 317 and 334 in FIG. 43) makes it extremely easy to execute the optimal reaction process. An example is given.

「確定された最適なA動画群情報の処理」(図46の335)
では、「A動画群情報」(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)としては、極めて簡単な最良の形態例として、アニメーション漫画も含む様々なコンピュータ画像動画の中から、彫刻・銅像・胸像なども含んだ撮影写真情報・絵画情報・映像情報、および、描写画像情報により、本人・恋人・友人・家族・赤ちゃん・幼児・故人・メイド・秘書・アイドル・歌手・俳優・有名人・偉人・歴史上の人物・ウルトラマン・宇宙人・怪獣・犬・猫・パンダ・ラッコなどに代表的に見受けられる実写を基礎とし(図45の326・327)、発音会話時の顔の変化・肯き・首振りなども含んだ身体・顔による感情表現を中心とした感情表現可能な音情報付き動画画像情報(図45の326・327・328)である。
“Processing of the determined optimal A movie group information” (335 in FIG. 46)
Then, as the “person or biological image information” (124, 133, or 125, 134 in FIG. 44) of “A moving image group information” (324 in FIG. 45), as a very simple best mode example, From various computer image videos including animated cartoons, photographic sculptures, bronze statues, busts, etc., photograph information, painting information, video information, and depiction image information, the person, lover, friend, family, baby, infant・ Based on live-action images that are typically found in deceased, maid, secretary, idol, singer, actor, celebrity, great, historical figure, ultraman, alien, monster, dog, cat, panda, sea otter, etc. (Fig. 45) 326, 327), video image information with sound information capable of expressing emotions centering on emotional expression by the body and face, including face change, positiveness, swinging, etc. during pronunciation conversation (FIG. 4) Which is a 326-327, 328).

この「A動画群情報」(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の不足動画・不足感情表現用画像情報、および、同不足動画・不足感情表現用音情報は、コンピュータグラフィク技術などのコンピュータ画像情報・同コンピュータ音情報演算により、「前後・複数台以上のカメラ類の実写画像情報、および、同前後画像情報の内容に適した音情報」と「時間軸上の他の経験値、平均値、もしくは、偏差値のいずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからの画像情報、および、同最適の音情報」により、推定演算され、新たに作り出された、不足動画表現用音情報付動画画像情報(図45の329・330・332)として組み込まれることになる。   Insufficient video / deficient emotion expression image information of “person or biological image information” (124, 133 or 125, 134 of FIG. 44) of this “A video group information” (324 of FIG. 45), and The sound information for expressing the deficient video and deficient emotion is calculated by computer image information and computer sound information calculation such as computer graphics technology. "Sound information suitable for" and "from other experience values, average values, or deviation values on the time axis, one or more, a combination of one or more, or a combination of one or more of the same As the moving image information with sound information for insufficient moving image expression (329, 330, and 332 in FIG. 45), which is estimated and newly created based on the “image information and the optimal sound information”. Made in written is it.

また、この「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)は、他の画像情報(図45の333)から、好きな服装類・服飾装飾類・帽子類・髭類・靴類、もしくは、眼鏡類を、重ねて、作成された「A動画群情報」(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)が、極めて簡単な最良の形態例として挙げられる。   In addition, this “human or biological image information” (124, 133 in FIG. 44 or 125, 134) is obtained from other image information (333 in FIG. 45) from the favorite clothing, clothing decorations, and hats. The “person or biological image information” (124, 133 in FIG. 44) of the “A video group information” (324 in FIG. 45) created by superimposing classes, moss, shoes, or glasses. Alternatively, 125 and 134) can be cited as the very simple best mode examples.

この「A動画群情報」(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)は、ディジタル空間内の表示画面上(図42の309)に、動画表示されている。(図42の353・357、図46の335)   The “human or biological image information” (124, 133, or 125, 134 in FIG. 44) of the “A moving image group information” (324 in FIG. 45) is displayed on the display screen in the digital space (in FIG. 42). 309), a moving image is displayed. (353 and 357 in FIG. 42, 335 in FIG. 46)

この「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)を、観察し、この「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)に、第1回目の問い掛けを、問い掛けている観察視聴者は、実際の空間側に(図41の303・図45の303)、いる。   This “person or biological image information” (124, 133 or 125, 134 in FIG. 44) is observed, and this “person or biological image information” (124, 133, or 125 in FIG. 44) is observed. 134) The viewer who is asking the first question is on the actual space side (303 in FIG. 41 and 303 in FIG. 45).

この第1回目を、問い掛けている観察視聴者の声色・声の強弱・声の高低・声の意味・様々な日常会話の音情報(図44の122・245)
《参照;特定A5感空間情報場面状況の音情報検知における、極めて簡単な例「20日常会話の特定A5感空間情報場面状況」》
・顔の表情・身振り、もしくは、手振りから(図44の124・133)、特定A5感空間情報場面状況(図44の300)内の観察視聴者の5感覚情報が、計測され・観測され・認識され、もしくは、推定される情報(図44・46の183)から、第1回目反応の最適のA動画群情報(図45の324)が、選択され(図46の185)、前記表示面へ(図42の309)、実行、動画表示処理される。(図42の353・357、図46の335)
The first time, the voice color, voice strength, voice pitch, voice meaning, voice information of various daily conversations (122 and 245 in FIG. 44)
<< Reference: A very simple example in the sound information detection of a specific A5 sense space information scene situation "20 Specific A5 sense space information scene situation of daily conversation">>
・ From the facial expressions / gestures or hand gestures (124, 133 in FIG. 44), the five sensory information of the viewer within the specific A5 sensation space information scene situation (300 in FIG. 44) is measured / observed / From the recognized or estimated information (183 in FIGS. 44 and 46), the optimal A video group information (324 in FIG. 45) of the first reaction is selected (185 in FIG. 45), and the display surface (309 in FIG. 42), execution and moving image display processing are performed. (353 and 357 in FIG. 42, 335 in FIG. 46)

この第1回目を、問い掛けた観察視聴者は、第1回目反応の最適のA動画群情報表示(図42の353・357、図46の335)を、視聴して、表示画面上のこの「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)に、第2回目の問い掛けを 掛けることになる。   The viewer who asked the first time watched the optimal A video group information display (353 and 357 in FIG. 42, 335 in FIG. 46) of the first response and viewed this “ The second question will be asked for “person or biological image information” (124, 133 or 125, 134 in FIG. 44).

第2回目の問い掛けを 掛けるている、この観察視聴者の声色・声の強弱・声の高低・声の意味・様々な日常会話の音情報(図44の122・131)
(参照;特定A5感空間情報場面状況の音情報検知における、極めて簡単な例「20日常会話の空間情報場面状況」)
・顔の表情・身振り、もしくは、手振りから(図44の124・133)、特定A5感空間情報場面状況(図44の300)内の観察視聴者の5感覚情報が、計測され・観測され・認識され、もしくは、推定される情報(図44・46の183)から、第2回目反応の最適のA動画群情報(図45の324)が、選択され、前記表示面へ(図42の309)、実行表示処理される。(図42の353・357、図46の335)
The viewer's voice, the strength of the voice, the level of the voice, the meaning of the voice, the meaning of the voice, and the sound information of various daily conversations (122 and 131 in Fig. 44)
(Reference: A very simple example of “Sound information detection of specific A5 sense space information scene situation“ Spatial information scene situation of everyday conversation ”)
・ From the facial expressions / gestures or hand gestures (124, 133 in FIG. 44), the five sensory information of the viewer within the specific A5 sensation space information scene situation (300 in FIG. 44) is measured / observed / From the recognized or estimated information (183 in FIGS. 44 and 46), the optimal A video group information (324 in FIG. 45) of the second reaction is selected and displayed on the display surface (309 in FIG. 42). ) And execution display processing. (353 and 357 in FIG. 42, 335 in FIG. 46)

以上の第3回目以上の繰り返しにより、ディジタル空間内(図41、図42の302)の表示画面上(図42の309)の、「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)と、実際の空間側(図41、図43の303)にいる、この観察視聴者は、日常会話を 交え・楽しむ事になる。 By repeating the above third or more times, “person or biological image information” (124 and 133 in FIG. 44) on the display screen (309 in FIG. 42) in the digital space (302 in FIGS. 41 and 42). Or, 125/134) and this observation viewer who is on the actual space side (303 in FIGS. 41 and 43) will exchange and enjoy daily conversation.

また、外気の寒気・流行病・低気圧などの別特定A5感空間情報(図41の300a)とも、繋がっている特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、病症状・怪我症状・死亡、もしくは、老化などのマイナスの体調・同顔色・同声、および、同顔表情を 表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, the specific A5 sensation space information (300a in FIG. 41) such as cold air, epidemic disease, and low pressure of the outside air, and the specific A5 sensation space information scene situation information (183 in FIG. 44) connected to this optimum The processing of “human or biological image information” (124, 133, or 125, 134 in FIG. 44) of the A movie group information (324 in FIG. 45) includes disease symptoms / injury symptoms / death or aging. It is also possible to select to express negative physical condition, facial color, voice, and facial expression, and to display a movie. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者が、この表示画面上(図42の309)に表示されている、復活エネルギー・病院・包帯治療・薬、もしくは、注射の情報を クリック選択した情報から、その反応として、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、死亡からの復活表現・包帯などの治療後画像情報の重ねあわせ表現させることや 怪我後の消滅・回復症状などのプラスの体調・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, from this information that the viewer has clicked and selected the information on resurrection energy, hospital, bandage treatment, medicine, or injection displayed on this display screen (309 in FIG. 42), The processing of the “human or biological image information” (124, 133 or 125, 134 in FIG. 44) of this optimal A movie group information (324 in FIG. 45) includes a revival expression / bandage from death, etc. Select to express the image information after treatment for the patient, and to express positive physical condition, facial color, voice, and facial expression such as disappearance / recovery symptoms after injury. Is also possible. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者の悪感情表現・叱責 の声浴びせなどの特定A5感空間情報場面状況(図44の300)の観察視聴者側の情報(図44の124・133と122・131)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、困惑・萎縮、もしくは、老化などのマイナスの体調・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   Also, from the information (124, 133 and 122, 131 in Fig. 44) on the viewer side of the specific A5 sensation spatial information scene situation (300 in Fig. 44), such as the expression of bad feelings of the viewer and the voice of reprimand In the process of “human or biological image information” (124, 133, or 125, 134 in FIG. 44) of this optimal A movie group information (324 in FIG. 45), confusion / atrophy or aging It is also possible to select to express a negative physical condition, facial color, voice, and facial expression such as, and to display a moving image. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、外気の暖気・高気圧などの別特定A5感空間情報(図41の300a)とも、繋がっている特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、快調・回復症状、もしくは、若返りなどのプラスの体調・同顔色・同声、および、同顔表情を 表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   Also, the specific A5 sensation space information (300a in FIG. 41) such as warm air and high atmospheric pressure of outside air, and the information of the specific A5 sensation space information scene situation (183 in FIG. 44) connected to this optimum A movie group information The processing of “person or biological image information” (124, 133, or 125, 134 in FIG. 44) of (324 in FIG. 45) has a positive physical condition / same as recovery / recovery symptoms or rejuvenation. It is also possible to select the expression of facial color / same voice and facial expression and to display a moving image. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、外気の天候状況(悪天候・良天候・雪・台風・地震など)などの別特定A5感空間情報(図41の300a)とも、繋がっている特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、天候に関する日常的会話音声を掛ける などの姿勢・同顔色・同声、および、同顔表情を 表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, the specific A5 sense space information (300a in FIG. 41) such as the weather conditions (bad weather, good weather, snow, typhoon, earthquake, etc.) of the outside air and the information on the specific A5 sense space information scene status (FIG. 44) that are connected. 183), the processing of “human or biological image information” (124, 133 or 125, 134 in FIG. 44) of this optimal A movie group information (324 in FIG. 45) It is also possible to select to express posture, facial color, voice, and facial expression, such as making a conversational voice, and to display a moving image. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者の善感情表現・愛情の声掛けなどの特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、快調・回復症状・若返り・美男子化、もしくは、美人化などのプラスの体調・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   Also, from the information about the specific A5 sense space information scene situation (183 in FIG. 44) such as the expression of good feelings and affection of the viewer, this “A person” of the optimal A video group information (324 in FIG. 45) , Or biological image information ”(124, 133 or 125, 134 in FIG. 44) includes a positive physical condition / similar color such as smoothness / recovery symptoms / rejuvenation / boyhood or beautification / It is also possible to select the expression of the same voice and facial expression and perform a moving image display process. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者が、この表示画面上に表示されている、カレー・オムレツ・スパゲティ・パン・ハンバーグ・ケーキ・ツマミ・お茶・コーヒー・紅茶・ビール・日本酒・ワイン・焼酎・ウィスキー・タバコ、もしくは、水などの喫飲・飲食情報を クリック選択した情報から、その反応として、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、「ありがとう」「乾杯」「頂きます」などの音声と共に、表示画面上の手に「前記クリックされた喫飲・飲食情報」を持ち、時々直接・間接に、口元に運ぶなどの日常喫煙・飲酒・飲食の姿勢・服装姿・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, this observation viewer is displayed on this display screen, curry, omelette, spaghetti, bread, hamburger, cake, knob, tea, coffee, tea, beer, sake, wine, shochu, whiskey, tobacco, Alternatively, from information obtained by clicking and selecting drinking / eating information such as water, as a response, “human or biological image information” (124. 133, 125, or 134), the voice on the display screen includes “the clicked drinking / food information” along with voices such as “Thank you”, “Cheers”, “Get me”, and sometimes directly・ Indirect smoking / drinking / eating / eating posture / clothing / same face color / same voice and facial expression, such as carrying to the mouth indirectly, etc. Is possible. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、時間計測情報などの別特定A5感空間情報(図41の300a)とも、繋がっている特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、1日・週・季節、および、年などの時間帯内に最適の服装を、重ねた姿・1日・週・季節、および、年などの時間帯内に最適の素ッピンであったり、化粧をさせたりの同顔色・同声、および、同顔表情を 表現させることを、選択し、自動動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, the specific A5 sense space information (300a in FIG. 41) such as time measurement information and the specific A5 sense space information scene status information (183 in FIG. 44) connected to this optimum A moving image group information (see FIG. 44). 45, 324) “Personal or biological image information” (124, 133 or 125, 134 in FIG. 44) is ideal for processing within a day, week, season, and year. , Which is the best skinpin for the time of day, week, season, and year, and the facial color, voice, and facial expression of makeup. It is also possible to select to perform automatic moving image display processing. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、時間計測情報などの別特定A5感空間情報(図41の300a)とも、繋がっている特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、設定記念日・設定誕生日・設定予定日に、適切な会話音声を、この観察視聴者認識時に(図44の124・133)、これに関する音声を掛けるなどの姿勢・服装姿・同顔色・同声、および、同顔表情を表現させることを、選択し、自動動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, the specific A5 sense space information (300a in FIG. 41) such as time measurement information and the specific A5 sense space information scene status information (183 in FIG. 44) connected to this optimum A moving image group information (see FIG. 44). 45, 324) “person or biological image information” (124, 133, or 125, 134 in FIG. 44), the appropriate conversational voice is set for the set anniversary, set birthday, and set scheduled date. When the viewer is recognized (124, 133 in FIG. 44), it is selected to automatically express the posture, clothes, face color, voice, and facial expression, such as making a sound related to this. It is also possible to perform a moving image display process. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、時間計測情報などの別特定A5感空間情報(図41の300a)とも、繋がっている特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、1日・週・季節、および、年などの時間帯内に最適の生理状態( 就寝状態であったり・ウトウトさせたり・疲れさせたり・食事、トイレタイムで、少々留守にしたり・音楽をハミングしていたりなど)などの体調・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, the specific A5 sense space information (300a in FIG. 41) such as time measurement information and the specific A5 sense space information scene status information (183 in FIG. 44) connected to this optimum A moving image group information (see FIG. 44). 45, 324) “Personal or biological image information” (124, 133 or 125, 134 in FIG. 44) is ideal for processing within a day, week, season, and year. Physical condition, facial color, voice, etc., such as physiology (sleeping, tingling, getting tired, eating, resting a little at toilet time, humming music, etc.) It is also possible to select to express a facial expression and perform a moving image display process. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者とのランダム時間経過・無言時間1定時間経過などの特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、クイズ・極めて簡単な計算問題・同漢字問題・同歴史問題を、問い掛けたり、その後ウンチクある解答をさせたりなどの体調・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, the optimal A video group information (324 in FIG. 45) is obtained from information (183 in FIG. 44) of the specific A5 sensation space information scene situation such as the passage of random time and the silence period of 1 fixed time with the viewer. In the processing of “human or biological image information” (124 · 133 or 125 · 134 in Fig. 44), we ask quizzes, extremely simple calculation problems, Kanji problems, and history problems, and then It is also possible to select the expression of physical condition, facial color, voice, and facial expression, such as giving a certain answer, and display a moving image. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者とのランダム時間経過・無言時間1定時間経過などの特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、懐かしの歌・流行の歌、もしくは、公知の歌・同音楽などを歌わせたりなどの姿勢・服装姿・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, the optimal A video group information (324 in FIG. 45) is obtained from information (183 in FIG. 44) of the specific A5 sensation space information scene situation such as the passage of random time and the silence period of 1 fixed time with the viewer. In the processing of “human or biological image information” (124, 133 or 125, 134 in FIG. 44), a nostalgic song, a popular song, or a publicly known song or the same music, etc. It is also possible to select the expression of posture, clothes, face color, voice, and facial expression, and to display a moving image. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者自信が、発している観測5感覚情報変化などの特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、同観察視聴者変化を この観察視聴者に、報告させたり、質問したり、などの服装姿・体勢・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   In addition, the observation viewer's self-confidence can be obtained from the information on the specific A5 sensation space information scene situation (183 in FIG. 44) such as changes in the observation 5 sensory information, and the optimal A movie group information (324 in FIG. 45). In the processing of “human or biological image information” (124, 133 or 125, 134 in FIG. 44), the observation viewer is reported to this observation viewer, questions are asked, etc. It is also possible to select the expression of clothes, posture, facial color, voice, and facial expression, and to display a moving image. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者の日常依頼会話・同命令会話の声掛けなどの特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、別特定A5感空間情報(図41の300a)を、検索し、同表示画面上に、データ情報として、表示させ(各種家電始動終了状況、我が子の保育園・帰宅中での状況、老父母の生活反応状況、観光地の・天候・紅葉などの季節変り目状況や混み具合、および、留守中のペットの状況など)、音声で報告する秘書としの姿勢・服装姿・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   Also, from the information on the specific A5 sensation space information scene situation (183 in FIG. 44) such as the conversation of the viewer's daily request conversation / command conversation, the optimum A moving image group information (324 in FIG. 45) is obtained. For the processing of “human or biological image information” (124 · 133 or 125 · 134 in FIG. 44), another specific A5 sensation space information (300a in FIG. 41) is searched and displayed on the display screen. , Display as data information (various home appliance start-up status, my child's nursery school / home return status, elderly parents' living reaction status, tourist spots / weather / autumn leaves, etc. It is also possible to select and express the posture, clothes, face color, voice, and facial expression as secretary to report by voice. is there. (353 and 357 in FIG. 42, 335 in FIG. 46)

また、この観察視聴者の日常依頼会話・同命令会話の声掛けなどの特定A5感空間情報場面状況の情報(図44の183)から、この最適なA動画群情報(図45の324)の「人、もしくは、生物画像情報」(図44の124・133、もしくは、125・134)の処理には、依頼・命令通り、別特定A5感空間情報(図41の300a)を、検索し、高頻度優先値内で、制御処理し、同表示画面上に、結果データ情報として、表示させる(チャンネル・音量の変更、照明の切替え、施錠の実施、風呂の給湯排湯開始、食器洗い機始動開始、洗濯乾燥機始動開始、クーラーの作動による室温の変更、庭芝生・鉢植えへの水遣り、屋根雪・庭雪の解凍行為、および、就寝システム・目覚めシステムの作動時間設定など)などのメイドとしての姿勢・服装姿・同顔色・同声、および、同顔表情を表現させることを、選択し、動画表示処理することも可能である。(図42の353・357、図46の335)   Also, from the information on the specific A5 sensation space information scene situation (183 in FIG. 44) such as the conversation of the viewer's daily request conversation / command conversation, the optimum A moving image group information (324 in FIG. 45) is obtained. For the processing of “human or biological image information” (124 · 133 or 125 · 134 in FIG. 44), the specific A5 sense space information (300a in FIG. 41) is searched according to the request / command. Control processing within the high-frequency priority value, and display it as result data information on the same display screen (change of channel / volume, switching of lighting, locking, starting of hot water for hot water in bath, starting of dishwasher As a maid, such as starting the washing and drying machine, changing the room temperature by operating the cooler, watering the garden lawn / potted plant, defrosting the roof snow / garden snow, and setting the operating time of the sleeping system / wake-up system) Attitude, clothing appearance, the same complexion, the same voice, and, that to express the same facial expression, it is also possible to select, to the video display processing. (353 and 357 in FIG. 42, 335 in FIG. 46)

以上、述べことは、最適なA動画群情報の処理として、時間軸上で、選択された前記特定A5感空間情報内で、最適な反応処理を 処理実行する(図42の353・357、図46の335)極めて少なく、極めて簡単な最良の代表的形態例として挙げられる。   As described above, as the optimal A movie group information processing, the optimal reaction processing is executed within the selected specific A5 sensation space information on the time axis (353 and 357 in FIG. 42, FIG. 46, 335). Very few and very simple and best representative examples.

次に、〔課題を解決するための手段〕12、15項に記載の事項を、その極めて簡単な最良の代表的形態例で、説明すると、具体的には、本特許明細書の12、15項対応の発明の効果で、対応できると思われるため、そちらで、ご確認下さい。 Next, [Means for Solving the Problems] Items described in Items 12 and 15 will be described in the very simple best representative embodiment. Specifically, the items 12 and 15 of this patent specification are specifically described. It seems that it can be supported by the effect of the invention corresponding to the item, so please check there.

次に、〔課題を解決するための手段〕17、18項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、図35の両離輻輳融合において、
図35Y3の407、Y3の406、Y3の405、Y4の404、Y4の403、および、Y4の402は、補間すべき画像情報であるため、それぞれ対応する、逆の融合画像用平面画像情報を複写して埋め込むことにより、補間場所では、自然な補間融合画像情報y4を、得ることが、できる。
Next, [Means for Solving the Problems] The items described in items 17 and 18 will be described in the very simple best mode example.
In FIG. 35, Y3 407, Y3 406, Y3 405, Y4 404, Y4 403, and Y4 402 are image information to be interpolated. By copying and embedding, natural interpolated fused image information y4 can be obtained at the interpolation location.

つまり、図35Y3の407に、Y4の407aをを複写して埋め込み、Y3の406に、Y4の406aをを複写して埋め込み、Y3の405に、Y4の405aをを複写して埋め込み、Y4の404に、Y3の404aをを複写して埋め込み、Y4の403に、Y3の403aをを複写して埋め込み、および、Y4の402に、Y3の402aをを複写して埋め込むことにより、各対応する補間場所同士の融合では、自然な補間融合画像情報y4を、得ることが、できる。 That is, Y4 407a is copied and embedded in Y3 407, Y4 406a is copied and embedded in Y3 406, Y4 405a is copied and embedded in Y3 405, Y4 By copying and embedding 404a of Y3 in 404, copying and embedding 403a of Y3 in 403 of Y4, and copying and embedding 402a of Y3 in 402 of Y4, they correspond to each other. In the fusion of the interpolation locations, natural interpolation fusion image information y4 can be obtained.

以上のことから、
イ、黒色系、もしくは、白色系による補間画像情報に比べ、原画像情報に基づく補間画像
情報のため(図35のY4の407a〜405aの複写とY3の404a〜402a
の複写)、より 自然で、違和感の少ない補間画像情報となること
ロ、原画像情報に基づく補間画像情報のため(図35のY4の407a〜405aの複写
とY3の404a〜402aの複写)、選択の幅が、限られるため 補間作業が、簡単
であること
を本発明の効果とする極めて簡単な最良の形態例として、挙げることが、できる。
From the above,
B. Interpolated image information based on original image information compared to interpolated image information based on black or white (for example, Y4 407a to 405a and Y3 404a to 402a in FIG. 35)
B) for interpolated image information based on the original image information (a copy of Y4 407a to 405a and a copy of Y3 404a to 402a). Since the range of selection is limited, it can be cited as a very simple best mode example in which the effect of the present invention is that the interpolation work is simple.

次に、〔課題を解決するための手段〕18項に記載の事項を加え、これをさらに自然な融合画像とすることができる
前記図35の補間同士の融合画像情報に、
「両飽和度融合画像情報」(図27の197)・
「両明度融合画像情報」(図27の207)・
「両像収差度融合画像情報」(図27の208)、および、
「両像輪郭線度融合画像情報」(図27の209)の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから構成される各融合画像情報信号、および、同融合画像情報光のいずれか1つ以上を備えること(図27の210)、もしくは、同各備えさせられること、により、
Next, [Means for Solving the Problems] The item described in item 18 is added, and the fusion image information between the interpolations in FIG.
“Both saturation fusion image information” (197 in FIG. 27).
“Brightness fusion image information” (207 in FIG. 27)
"Both image aberration degree fusion image information" (208 in FIG. 27), and
Of “Both-image contour-line fusion image information” (209 in FIG. 27),
One or more of each fusion image information signal composed of one or more, one or more various combinations, or one or more various superpositions, and the same fusion image information light (FIG. 27). 210), or by providing each of the same,

イ、「両飽和度融合画像情報」(図27の197)による融合画像情報立体化効果・
「両明度融合画像情報」(図27の207)による融合画像情報立体化効果・
「両像収差度融合画像情報」(図27の208)による融合画像情報立体化効果、および、
「両像輪郭線度融合画像情報」(図27の209)による融合画像情報立体化効果の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから
構成される融合画像情報立体化効果を、
「両形融合画像情報」「両組融合画像情報」・「両形組融合画像情報」、および、「両輻輳
融合画像情報」の立体画像情報効果に
加え・重ね合わすことが可能なため、より、幅と深みを持った立体画像情報を 得るこ
とができる。
B. Fusion image information stereoscopic effect by “Both saturation fusion image information” (197 in FIG. 27)
3D effect of fusion image information by “Brightness fusion image information” (207 in FIG. 27)
Fusion image information stereoscopic effect by “Both image aberration degree fusion image information” (208 in FIG. 27), and
Among the three-dimensional effects of the fused image information by “Both-image contour-line fused image information” (209 in FIG. 27),
Fusion image information three-dimensional effect composed of one or more, one or more various combinations, or one or more various superpositions,
In addition to the stereoscopic image information effects of “Both-shaped fusion image information”, “Both-pair fusion image information”, “Both-shape fusion image information”, and “Both-congestion fusion image information” It is possible to obtain stereoscopic image information having a width and depth.

ロ、「両飽和度融合画像情報」(図27の197)による融合画像情報立体化効果・
「両明度融合画像情報」(図27の207)による融合画像情報立体化効果・
「両像収差度融合画像情報」(図27の208)による融合画像情報立体化効果、および、
「両像輪郭線度融合画像情報」(図27の209)による融合画像情報立体化効果の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから
構成される融合画像情報立体化効果を、
前記〔課題を解決するための手段〕第17の補完画像情報に加え・重ね合わすことが
できるため、
原画像情報複写に基づく補間画像情報に比べ、前記優先融合画像情報立体化効果によ
り、
目立たしたい補間画像情報を より目立たせ、
目立たせたくない補間画像情報を より目立たせなくした状態
を、前記優先融合画像情報(=優先立体画像情報・参照『用語の説明』)で、得ること
が可能となり、
従って、原画像情報と 融合した状態の自然で、同違和感のより少ない補間画像情報と
なることが可能であること
を本発明の効果とする極めて簡単な最良の形態例として、挙げることが、できる。
B, “Both saturation image information” (197 in FIG. 27)
3D effect of fusion image information by “Brightness fusion image information” (207 in FIG. 27)
Fusion image information stereoscopic effect by “Both image aberration degree fusion image information” (208 in FIG. 27), and
Among the three-dimensional effects of the fused image information by “Both-image contour-line fused image information” (209 in FIG. 27),
Fusion image information three-dimensional effect composed of one or more, one or more various combinations, or one or more various superpositions,
[Means for Solving the Problems] In addition to the 17th complementary image information, it can be superimposed.
Compared to the interpolated image information based on the original image information copy, the priority fusion image information stereoscopic effect makes it possible to
Make the interpolated image information you want to stand out more prominent,
It is possible to obtain a state in which interpolation image information that is not conspicuous is made less conspicuous with the priority fusion image information (= priority stereoscopic image information / reference “Description of Terms”),
Therefore, it can be mentioned as a very simple best mode example that makes it possible to obtain interpolated image information that is natural and less discomfort in a state fused with original image information. .

次に、〔課題を解決するための手段〕19項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の19項対応の発明の効果で、対応できると思われるため、そちらで、ご確認下さい。 [Means for Solving the Problems] Next, the matter described in item 19 will be described in its very simple best mode. Specifically, the effect of the invention corresponding to item 19 in this patent specification will be described. Because it seems that it can respond, please check there.

次に、〔課題を解決するための手段〕20項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の20項対応の発明の効果と、本特許明細書の用語の説明『処理』に記載されている事項で、対応できると思われるため、そちらで、ご確認下さい。 [Means for Solving the Problems] Next, the matter described in item 20 will be described in its very simple best mode. Specifically, the effect of the invention corresponding to item 20 in this patent specification will be described. And the items described in the explanation “Terminology” in this patent specification are considered to be applicable.

次に、〔課題を解決するための手段〕21項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、「残像による時分割融合」の具体的数値は、特開2004−91304手続補正書〔実施例〕段落〔0218〕の実験Aに記載の
「1秒あたりでは、61.85枚/秒(誤差±11枚)となる。誤差±11枚は、一個人の数値であるため、個々のぶれを18%ほど設けた。」と同じ、駒数である。
[Means for Solving the Problems] Next, the matter described in item 21 will be described in its very simple best mode. Specific values of “time division fusion by afterimage” are disclosed in Japanese Patent Application Laid-Open No. 2004-2004. 91304 Procedure Amendment [Example] described in Experiment A in paragraph [0218]
“The number of frames per second is 61.85 sheets / second (with an error of ± 11 sheets). Since the error of ± 11 sheets is a value for one individual, about 18% of each blur is provided.” It is.

従って、この駒数以上であれば、本特許技術の融合現象が、起こることになる。   Therefore, if this number of frames is exceeded, the fusion phenomenon of this patented technology will occur.

次に、〔課題を解決するための手段〕22項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の22項対応の発明の効果で、対応できると思われるため、そちらで、ご確認下さい。 [Means for Solving the Problems] Next, the matter described in item 22 will be described in its very simple best mode. Specifically, the effect of the invention corresponding to item 22 in this patent specification will be described. Because it seems that it can respond, please check there.

次に、〔課題を解決するための手段〕23項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の23項対応の発明の効果で、対応できると思われるため、そちらで、ご確認下さい。 [Means for Solving the Problems] Next, the matter described in item 23 will be described in its very simple best mode. Specifically, the effect of the invention corresponding to item 23 in this patent specification will be described. Because it seems that it can respond, please check there.

次に、〔課題を解決するための手段〕24項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の24項対応の発明の効果で、対応できると思われるため、そちらで、ご確認下さい。 [Means for Solving the Problems] Next, the matter described in item 24 will be described in its very simple best mode. Specifically, the effect of the invention corresponding to item 24 in this patent specification will be described. Because it seems that it can respond, please check there.

次に、〔課題を解決するための手段〕25項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の25項対応の〔課題を解決するための手段〕と同項〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 [Means for Solving the Problems] Next, the matter described in the item 25 will be described in its very simple best mode. Specifically, the item corresponding to the item 25 in the present patent specification is specifically described. [Means for solving] and the same paragraph [Effect of the invention].

次に、〔課題を解決するための手段〕26項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の26項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the items described in Item 26 will be described in terms of the very simple best mode. Specifically, the item corresponding to Item 26 of the patent specification will be described. Please check it there.

次に、〔課題を解決するための手段〕27項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の27項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 [Means for Solving the Problems] Next, the matter described in item 27 will be described in its very simple best mode example. Specifically, the item corresponding to item 27 in this patent specification Please check it there.

次に、〔課題を解決するための手段〕28項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の28項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the item described in Item 28 will be described in its very simple best mode. Specifically, it corresponds to Item 28 of the present patent specification. Please check it there.

次に、〔課題を解決するための手段〕29項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の29項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the items described in [Means for Solving the Problems], item 29, will be described in the very simple best mode example. Specifically, it corresponds to item [29] of the present patent specification. Please check it there.

次に、〔課題を解決するための手段〕30項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の30項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 [Means for Solving the Problems] Next, the matter described in item 30 will be described in its very simple best mode example. Specifically, the item corresponding to item 30 in this patent specification will be described. Please check it there.

次に、〔課題を解決するための手段〕31項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の31項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the items described in [Means for Solving the Problems], item 31 will be described in the very simple best mode example. Specifically, the item corresponding to item 31 of this patent specification is specifically described. Please check it there.

次に、〔課題を解決するための手段〕32項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の32項対応の〔課題を解決するための手段〕と同項〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the items described in [Means for Solving the Problems], item 32, will be described in the very simple best mode example. [Means for solving] and the same paragraph [Effect of the invention].

次に、〔課題を解決するための手段〕33項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の33項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the item described in Item 33 will be described in its very simple best mode. Specifically, it corresponds to Item 33 of the present patent specification. Please check it there.

次に、〔課題を解決するための手段〕34項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の34項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the items described in [Means for Solving the Problems], item 34, will be described in the very simple best mode example. Specifically, the item corresponding to item 34 of this patent specification is described in detail. Please check it there.

次に、〔課題を解決するための手段〕35項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の35項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the items described in [Means for Solving the Problems], paragraph 35, will be described in the very simple best mode example. Specifically, it corresponds to the paragraph [35 of the invention] corresponding to paragraph 35 of this patent specification. Please check it there.

次に、〔課題を解決するための手段〕36項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の36項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the item described in [Means for Solving the Problems] in Item 36 will be described in its very simple best mode. Specifically, it corresponds to Item 36 in the present patent specification. Please check it there.

次に、〔課題を解決するための手段〕37項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の37項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the item described in [Means for Solving the Problems], paragraph 37, will be described in its very simple best mode. Specifically, it corresponds to the paragraph [37] of the present invention. Please check it there.

次に、〔課題を解決するための手段〕38項に記載の事項を、その極めて簡単な最良の形態例で、説明すると、具体的には、本特許明細書の38項対応の〔発明の効果〕で、対応できると思われるため、そちらで、ご確認下さい。 Next, the item described in [Means for Solving the Problems] in Item 38 will be described in its very simple best mode. Specifically, the item corresponding to Item 38 in this patent specification will be described. Please check it there.

次に、極めて簡単な1例としての実験例を述べると
基本写真P(背景を黒塗りされ、右手を挙げた鼻が大きい熊のぬいぐるみ写真h;60mm×w;52mm中心線T)
写真伸P(基本写真Pを両形融合画像情報比率100:74の比率で、横に伸張した写真h;60mm×w;64mm中心線T)、
写真縮P(同写真を、同比率で、圧縮した写真h;60mm×w;40mm中心線T)とした。
Next, an experimental example as an extremely simple example is described. Basic photograph P (a stuffed toy photograph of a bear with a black background and a large nose with the right hand raised; 60 mm × w; 52 mm centerline T)
Photo expansion P (photo h obtained by horizontally expanding the basic photo P at a ratio of both-shaped fusion image information 100: 74; 60 mm × w; 64 mm center line T),
Photo-reduced P (the photo was compressed at the same ratio, photo h; 60 mm × w; 40 mm centerline T).

写真伸P・縮Pを各縦中央で左右2分し、前記各画像情報右同士・同左同士を入れ替え接合した画像情報を向かって右側大形状を写真組右P(h;60mm×w;47mm中心線T)
同じ様に、左側大形状を組左P(h;60mm×w;47mm中心線T)とした。
The photo enlargement P and the reduction P are divided into left and right halves at each vertical center, and the right side large shape is turned to the right side of the photo information P (h; 60 mm × w; 47 mm) toward the image information obtained by switching the right and left of the respective image information. Center line T)
In the same manner, the left large shape is set to the left P (h; 60 mm × w; 47 mm center line T).

写真伸P・縮P・組右P・組左Pから、熊の大きい鼻のみを 切り抜いた小さな丸型写真をそれぞれ、伸PH(h;9mm×w;18mm中心線T)・縮PH(h;9mm×w;10mm中心線T)・組右PH(h;9mm×w;14mm中心線T)・組左PH(h;9mm×w;14mm中心線T)とした。 Small round photos of only the large bear's nose cut out from the photo enlargement P, contraction P, group right P, and group left P, respectively, with the extension PH (h; 9 mm x w; 18 mm centerline T) and reduction PH (h 9 mm × w; 10 mm center line T) · Right group PH (h; 9 mm × w; 14 mm center line T) · Right group PH (h; 9 mm × w; 14 mm center line T).

角棒(h;220mm×w;4mm×d;4mm中心線T)の上部に、角棒中心線Tと組右P中心線Tが、一致するよう組右Pを張り、角棒を挟んだ真裏に、同様に、組左PTを一致させて張り、伝伝太鼓の様に、回転させると、表裏の組右P組左Pが、両組融合画像情報して、「空間突出度画像情報」の立体画像情報が、見える実験において、 On the upper part of the square bar (h; 220 mm × w; 4 mm × d; 4 mm center line T), the set right P is stretched so that the square bar center line T and the set right P center line T coincide, and the square bar is sandwiched between them. In the same way, when the left PT is matched and stretched and rotated like a transmission drum, the right and left P right and left left P will be the fusion image information of both sets, and “spatial protrusion degree image information” In the experiment where the 3D image information can be seen,

実験;A
回転体における、図1の実験のため、
組右Pに、画像情報下から、30mmで、組右PTより、真左に5mmずれた線に、伸PHTが、重なるように伸PHを張り、組左Pには、画像情報下から、30mmで、組左PTより、真右に5mmずれた線に、縮PHTが、重なるように縮PHを張り、回転させ、表裏の組右Pと組左Pが、両組融合融合画像情報し、伸PHと縮PHが、両形融合画像情報による上下両離輻輳融合画像情報して、「空間突出度画像情報」上空に小さな「空間深度画像情報」が見える立体画像情報を得た。
Experiment; A
For the experiment of FIG.
From the bottom of the image information to the group right P, stretched PH is stretched so that the stretched PHT overlaps the line shifted 5 mm to the left from the group right PT at 30 mm. At 30 mm, the compressed PH is stretched and rotated so that the compressed PHT overlaps the line shifted 5 mm to the right from the left PT. The three-dimensional image information in which small “spatial depth image information” can be obtained in the sky above “spatial protrusion degree image information” is obtained by using the expanded PH and the contracted PH as the upper and lower convergence convergence image information based on the both-shaped fused image information.

実験;B
回転体における、図3の実験のため、
組右Pに、画像情報下から、30mmで、組右PTより、真左に5mmずれた線に、組右PHTが、重なるように組右PHを張り、組左Pには、画像情報下から、30mmで、組左PTより、真右に5mmずれた線に、組左PHTが、重なるように組左PHを張り、回転させ、表裏の組右Pと組左Pが、両組融合融合画像情報し、組右PH組と左PHも、両組融合画像情報による上下両離輻輳融合画像情報して、「空間突出度画像情報」上空に小さな「空間突出度画像情報」が見える立体画像情報を得た。
Experiment; B
For the experiment of FIG.
The group right PHT is stretched so that the group right PHT overlaps with a line shifted 5 mm to the left from the group right PT at 30 mm from the bottom of the image information on the group right P. From 30mm, set the left PH so that the left PHT overlaps the line 5mm to the right from the left PT, and rotate the left PH so that it overlaps. Combined image information, the right PH group and the left PH are also displayed as both the upper and lower deconvergence fused image information based on both sets of combined image information, and a small "space protrusion degree image information" can be seen above the "space protrusion degree image information". Obtained image information.

実験;C
図7の実験のため、
四角錘(h;35mm×w;35mm中心線T)を、7当分し(1本=h;5mm×w;35mmが、7本)段階的に伸張された、図7を、視点交差法で、交差観察した。
両形融合画像情報による上下両離輻輳融合画像情報により、「空間深度画像情報」が、視点移動に、応じて 段階的に変化できる、元の画像情報より、横方向が、約1割ほど縮まった四角錘(h;35mm×w;約31mm)の立体画像情報を得た。
Experiment; C
For the experiment of FIG.
A square pyramid (h; 35 mm × w; 35 mm centerline T) is divided into 7 parts (1 = h; 5 mm × w; 35 mm is 7) and expanded in stages. FIG. , Cross-observation.
By using both-vertical fusion image information, the spatial depth image information can be changed in stages according to the viewpoint movement, and the horizontal direction is reduced by about 10% from the original image information. Three-dimensional image information of a square pyramid (h; 35 mm × w; about 31 mm) was obtained.

実験;D
図9の実験のため、
四角錘(h;35mm×w;35mm中心線T)を、7当分し(1本=h;5mm×w;35mmが、7本)段階的に伸張された、図9を、視点交差法で、交差観察した。
両組融合画像情報による上下両離輻輳融合画像情報により、「空間突出度画像情報」が、視点移動に、応じて 段階的に変化できる、元の画像情報より、横方向が、約1割ほど縮まった四角錘(h;35mm×w;約31mm)の立体画像情報を得た。
Experiment; D
For the experiment of FIG.
A square pyramid (h; 35 mm × w; 35 mm center line T) is divided into seven parts (1 = h; 5 mm × w; 35 mm is 7) and is expanded in stages. , Cross-observation.
About 10% of the horizontal direction of the original image information can be changed step by step according to the viewpoint movement. Three-dimensional image information of a contracted square weight (h; 35 mm × w; about 31 mm) was obtained.

実験;E
図1・3・5・7・9・11・28・30・32・34・35・36、および、37の実験のため、
本明細書ご覧の方が、本明細書図面 図1・3・5・7・9・11・28・30・32・34・35・36、および、37を、視点交差法で、交差観察して頂ければ、各種両離輻輳融合画像情報を、御自身の両眼で、ご確認頂けると思われる。
Experiment; E
For the experiments of Figs. 1, 3, 5, 7, 9, 11, 28, 30, 32, 34, 35, 36, and 37,
If you are looking at this specification, you can cross-view Figures 1, 3, 5, 7, 9, 11, 28, 30, 32, 34, 35, 36, and 37 using the viewpoint crossing method. If you can, you will be able to confirm the various convergence and convergence image information with your own eyes.

後段各段落に、極めて簡単で、同基礎的各発明の効果1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ、による産業上の利用可能性が挙げられている。
(紙面数と先願主義の時間制約の都合上、技術模倣と基礎理解に必要なもののみに限り 可能な限り丁寧に、述べたつもりでいるが、該1以上と 同1以上の数々の組み合わせ効果・同応用効果・同応用事例・同連想効果、および、同連想事例などの 全てに渡って、残念ながら、公開できていない。しかし、極めて簡単で基礎的な本各効果と同各事例の各1以上と 同各1以上の数々の組み合わせ効果・同重ね合わせ効果・同応用効果・同応用事例・同連想効果、および、同連想事例は、当然、本明細書記載事項に、含まれている記載領域事項であることは、言うまでもない。)
以下、極めて簡単な例ごとに 主立ったものを説明すると、
The following paragraphs list the industrial applicability of the basic inventions that are extremely simple and have one or more effects, one or more various combinations, or one or more various overlays. .
(Because of the number of pages and time constraints of the prior application principle, I intend to say as carefully as possible only to those necessary for technology imitation and basic understanding. Unfortunately, it is not possible to publish all of the effects, application effects, application examples, association effects, and association examples, but the extremely simple and basic effects and Each one or more and one or more of each combination effect, the same overlay effect, the same application effect, the same application example, the associative effect, and the associative effect are naturally included in the items described in this specification. Needless to say, it is a matter of description area.)
In the following, the main ones will be explained for each extremely simple example.

イ、2004年11月読売テレビジョン放送「億万のこころ」で、公開された有機エレクトロルミネセンス表示画像情報では、有機エレクトロルミネセンスの基盤となる透明シートの背面処理を、白塗装仕上げから、アルミ蒸着による鏡面仕上げに、変更され公開されていたが、有機エレクトロルミネセンス膜が、数ミクロンと薄いため、不印苛による黒色の表現時に、外光が、背面アルミの鏡面仕上げに反射され、黒色の表現が、難しくなると思われる点の解消が、既存の画像情報表示部へ図14の5・図15の5・図16の5・図18の5、および/もしくは、図20の各構造体を設置すれば、前記外光反射が、奥へ反射導入したり・傾けて反射したり・球面反射・曲面反射することにより、さらに、前記外光反射角度と反射方向を変え分散させることで、前記黒色の表現が可能となる。   B) In the organic electroluminescence display image information released in the November 2004 Yomiuri television broadcast “Millions of Hearts”, from the white coating finish, The mirror finish by aluminum deposition was changed and published, but because the organic electroluminescence film is as thin as several microns, outside light is reflected on the mirror finish of the back aluminum when expressing black due to unprinted The elimination of the point where black expression is considered to be difficult can be solved by changing the existing image information display unit to 5 in FIG. 14, 5 in FIG. 15, 5 in FIG. 16, 5 in FIG. 18, and / or each structure in FIG. If the body is installed, the external light reflection is introduced into the back, inclined and reflected, spherical reflection, and curved reflection, and the external light reflection angle and reflection direction are further changed. Letting dispersed in, it is possible to express the black color.

同様に、薄い液晶素子による表示画像情報の場合は、薄黒色の水平・垂直の2枚の偏光板で、濃い黒色を表現できるが、有機エレクトロルミネセンス表示画像情報では、この偏光板の働きに、対応しているものが、図14の5・図15の5・図16の5・図18の5の濃い暗部を備えた該構造体として、存在するため、前記有機エレクトロルミネセンス膜自身は、不印苛時でも、従来の薄い液晶素子による表示画像情報同様、ほぼ黒色に見えることになり、黒色の表現が重要視される産業上の利用可能性分野迄、広がる。   Similarly, in the case of display image information by a thin liquid crystal element, dark black can be expressed by two light black horizontal and vertical polarizing plates, but in the case of organic electroluminescence display image information, this polarizing plate functions. , The corresponding organic electroluminescent film itself is present as the structure having the dark portions of 5 in FIG. 14, 5 in FIG. 15, 5 in FIG. 16, and 5 in FIG. Even when there is no mark, it will look almost black like the conventional display image information by thin liquid crystal elements, and it will spread to the industrial applicability field where black expression is regarded as important.

ロ、液晶表示画面以外の有機エレクトロルミネセンス表示画面や、プラズマ表示画面は、最前列の表示面が、わざわざ、ピカピカの鏡面仕上げにしてあるため、画像観察時に、太陽外光・室内照明灯の直接反射や、白っぽい各天井・床・家具・ソファ・衣服・壁、もしくは、襖の、間接的 映り込みが、激しく、日常は約3割、カーテンを開け、庭からの日光が、強まった時は、約7割ほどが、前記最前列の表示面に、くっきりと映り込み、画像内容の観察を、著しく妨げている。 B) Organic electroluminescence display screens other than liquid crystal display screens and plasma display screens have a specially mirror-finished display surface in the front row. Direct reflection and indirect reflection of each whitish ceiling / floor / furniture / sofa / clothes / wall or wall, intense, about 30% in daily life, when curtains are opened and sunlight from the garden is strengthened About 70% of the image is clearly reflected on the display surface of the front row, and the observation of the image content is significantly hindered.

しかし、液晶表示画面の最前列の表示面では、表示面から、手前左右各約20度以外では、その様な映り込みは、全く見受けられず、前記視覚生体機能欲求を、1度も妨げることのない、見やすい画面の印象のみが、心情に残る。本印象は、家電売り場(良い売り場ほど、照明が、明るく、床も、ピカピカに、磨き上げられ、全体的に白系統色である)における、購買選択中の顧客視聴者にとっても、全く同じと思われ、テレビジョン購入時には、決定的、マイナスの差別化要因となると思われる。 However, on the display surface in the front row of the liquid crystal display screen, such reflection is not seen at all other than about 20 degrees each on the right and left sides from the display surface, and the visual biological function desire is prevented once. Only the impression of an easy-to-see screen without any impression remains in my heart. This impression is exactly the same for the customer viewers who are making purchase choices in the consumer electronics department (the better the department is, the brighter the lighting, the brighter the floor, the more polished and the overall color is white) It seems that when buying a television, it will be a decisive and negative differentiator.

また、大画面に 成るほど、この負の要因は、二乗的に増大していくため、他の大画面商品は、液晶大画面販売促進のための、比較陳列役となり、1部を除き、毎年液晶に、その大画面シェアを 攻め込まれている現状も 納得がいく。 In addition, the larger the screen, the more this negative factor increases in a square. Therefore, other large-screen products will serve as comparative displays for the promotion of LCD large-screen sales. I am convinced of the current situation in which the large screen share is being attacked by LCDs.

しかし、このことは、今後の大画面化市場拡大にとり、重要な問題に成って行くと思われ、本反射光現象を、図42の表面構造体を設置することにより、改善することが、できる産業上の利用可能性分野迄、広がる。
ハ、「映像情報内容から判断できる空間情報提示」には、視覚情報、以外に、音情報・聴覚情報・嗅覚情報、触覚情報、味覚情報が、存在する「場面状況」があるため、「映像情報内容から判断できる場面状況」を確定後、「該場面状況」に、最適な該各5感覚画像情報を選択決定し、生体機能拒絶回避コンピュータープログラムによる生体機能拒絶なしの快適な5感覚画像情報(視覚・聴覚・嗅覚・触覚・味覚)の立体的再現に拠る、最適・快適な圧倒的臨場感を、提供でき、両眼視差画像情報ができる 目前まで飛び出すレベル領域での前記各効果も提供できる産業上の利用可能性分野迄、広がる。
However, this seems to become an important problem for the future expansion of the market for larger screens, and this reflected light phenomenon can be improved by installing the surface structure shown in FIG. It extends to the field of industrial applicability.
C, “Presentation of spatial information that can be judged from the contents of video information” includes “scene conditions” in which sound information, auditory information, olfactory information, tactile information, and taste information exist in addition to visual information. After confirming the “situation situation that can be judged from the information content”, the optimum five sensory image information is selected and determined for the “situation situation”, and comfortable five sensory image information without biological function rejection by the biological function rejection avoidance computer program Provides optimal and comfortable overwhelming presence based on the three-dimensional reproduction of (visual, auditory, olfactory, tactile, and taste) and provides binocular parallax image information. It extends to the field of industrial applicability.

ニ、前記「映像情報内容から判断できる空間情報提示」の「映像情報内容」以外に、「空間情報状況内容から判断できる空間情報提示」も、望まれ、「観測判断される同空間情報場面状況」と「提示される最適な同空間情報」間において、5感覚情報による、単方向・双方向の情報交換、単方向・双方向の立体画像情報媒体による対話により、人が持つ5感覚情報(視覚・聴覚・嗅覚・触覚・味覚)の空間相互同士の立体的再現を、両眼視差画像情報には可能な 目前まで飛び出すレベル領域での再現で、提供でき、本特許明細書記載の極めて簡単な最良の形態例である空間情報内の産業上での 利用可能性分野迄、広がる。 In addition to the “video information content” of the “spatial information presentation that can be judged from the video information content”, “spatial information presentation that can be judged from the spatial information status content” is also desired, ”And“ optimum same space information to be presented ”, the five sensory information (5) The three-dimensional reproduction of the visual, auditory, olfactory, tactile, and gustatory spaces between each other can be provided by reproducing in the level region that pops out right before the binocular parallax image information is possible, and is extremely simple as described in this patent specification It expands to the field of industrial applicability in spatial information, which is the best example of the form.

ホ、平面画像情報が十分な立体画像情報に変換できるため、平面画像情報の画像情報関連物に画像情報立体化処理装置、もしくは、立体画像情報保持物を 「繋ぐ」か「繋ぐ行為を続ける」か、投入して「繋ぐ」か、により立体画像情報処理装置をその都度、「形成」、「形成し続ける」、もしくは,「形成持続」でき、現存する平面画像情報も 将来、および、現時点で、立体画像情報の画像情報関連物に、成り得ることになり、両眼視差画像情報ができる 目前まで飛び出すレベル領域での前記各該関連物を得られることが、できる産業上の利用可能性分野迄、広がる。 E. Since the plane image information can be converted into sufficient stereoscopic image information, the image information stereoscopic processing device or the stereoscopic image information holding object is “connected” or “continue to connect” to the image information related object of the planar image information. 3D image information processing device can be “formed”, “continue to form”, or “continue to form” each time depending on whether it is connected or “connected”, and the existing plane image information will also be present in the future It can become an image information related object of stereoscopic image information, and binocular parallax image information can be obtained. Until it spreads.

( 同じく立体・平面画像情報保持予定物、立体・平面画像情報保持可能物も将来、および、現時点で、立体画像情報の画像情報関連物を形成することができる。) (Similarly, a stereoscopic / planar image information holding scheduled object and a stereoscopic / planar image information holding object can also form an image information related object of stereoscopic image information in the future and at present.)

《 従って、平面画像情報の画像情報関連物分野に 携わる当事業者は、同分野における 社会的高位の現行・行使権力(研究・立案・設計・試作・金型・成型・設備投資・製作・製造・製造管理・在庫管理・配送・販売・販促・アフターケア営業権・マーケティング・他の平面画像情報物との営利的密接な関係・現平面画像情報市場の確保権)を、全く、競争に晒され、犯されることもなく、知る・知らないに関わらず、該「繋ぐ」だけで、立体画像情報の画像情報関連物分野に おける、同等の社会的高位の現行と同じ行使権力を、一瞬に、確保・保証されていることに、気づかなければ、その無形の御恵を、幾らかでも預かっていながら、公平な共有に気づかず・配慮されず、無形の御恵の 幾らかでも預かっている分だけの公平な共有が、成されないため、私的な独占に陥いり易くなると、思われる。何故ならば、技術革新とは、その様なものであり、額に、何ら汗することも無く、ゼロから築き上げる投資も必要とせず、無風状態で、立体画像情報分野に おける、同等の社会的高位の 現行と同じ 行使権力を得られるからである。》 << Accordingly, this business operator engaged in the field of image information related products for flat image information has a high social power and exercise power in this field (research, planning, design, prototyping, mold, molding, capital investment, production, manufacturing・ Manufacturing management ・ Inventory management ・ Distribution ・ Sales ・ Promotion ・ Aftercare sales rights ・ Marketing ・ Commercial close relationship with other flat image information products ・ Right to secure the current flat image information market) Regardless of knowing or not knowing, regardless of knowing or not knowing, just by `` connecting '', the same exercise power of the same social high level in the image information related field of stereoscopic image information can be instantly If you do not realize that it is secured / guaranteed, you will keep some intangible blessings, but you will not be aware of fair sharing and will not be considered, and you will keep some intangible blessings. Just sharing Because it is not, the likely Ochiiiri a private monopoly appears. This is because technological innovation is like that, no amount of sweat, no investment to build from scratch, no wind, and the equivalent social in the 3D image information field. This is because the same exercise power as the current high level can be obtained. >>

《 また、本特許範囲が、見えない技術の効力にまで、特許請求範囲を 拡張設定していることに、関しては、権利乱用や、当業界の健全な発展を、決して、阻害する行為ではなく、むしろ、見えない技術の効力にこそ、当業界の健全な発展を、促進する力が、在る と信じているからに、他ならない。見えない技術の効力にこそ、顧客市場は、購買投資してくれるものと、確信しているからであり、この力こそ、顧客は、自身が投資してきた家庭に存在する平面画像情報環境を、一切、無駄にすることなくレベルアップを計れる、「夢の様な力」と期待実感し体験できる。「この力」=「見えないこと」=「見えない期待価値感」が、必要以上の方々の参入と、必要以上の購買を 推し進め 本業界の健全な発展を超えた、大発展をもたらす原動力になる と思われる。 《In addition, regarding the fact that this patent scope extends the scope of claims to the effect of invisible technology, it is an act that never inhibits abuse of rights and the sound development of the industry. Rather, it is none other than the belief that the power of invisible technology has the power to promote the sound development of the industry. It is because the customer market is convinced that the invisible technology will make a purchase investment, and this power is the customer's plan image information environment that exists in the home where they have invested. You can experience and experience the “dreamy power” that you can level up without wasting at all. "This power" = "Invisible" = "Invisible expected value" is the driving force that brings about more people than necessary and purchases more than necessary, and that brings about great development beyond the sound development of the industry. It seems to be.

従って、本特許請求範囲を 設定した。 Therefore, the scope of claims is set.

それは、見えない技術の効力により、国の産業の基幹となる大手銀行と比肩できるほどに、大成長した保険業界が、その力の効力を、既に、証明している。(日常、保険技術は、見えないが、見えない安心感の効力は、既に、発生している。)顧客市場は、保険業界と同様、本特許の見えない技術の効力に、夢の様な「見えない期待価値感」を見いだし、喜んで、更なる、現平面画像情報市場に、購買再投資してくれるものと、予見され、この「見えない期待価値感」の力は、本業界に、保険業界同様、大発展をもたらすことになると、確信している。   The insurance industry, which has grown so much that it can be compared with the major banks that are the core of the country's industry due to the power of invisible technology, has already proven its power. (Everyday, insurance technology is invisible, but invisible security is already in effect.) Like the insurance industry, the customer market is in the dream of the invisible technology of this patent. The “invisible expected value” was found and willing to further repurchase and reinvest in the current flat image information market. The power of this “invisible expected value” I am convinced that, like the insurance industry, it will bring about great development.

(見えないからと言って、軽視していては、価値判断を大きく誤ることになる。憲法の効力は、日常見て取れず、仏法の効力も、日常見て取れない。しかし、憲法の効力は、1国を、制定し、仏法内の1効力は、聖観音の念彼観音力として、今日の日本の超一流企業の数々の繁栄を、齎している。各社各会長の1業務は、この聖観音の御働きを 称えることである。見えない世界において、約100年前頃、米国に、捻じ曲げられて降り注いでいた天上界からの金の粉が、該聖観音の御働きにより、約35年前頃から、本来の姿で、日本に真っ直ぐ降り注ぎだした。物理学原理のみに取り込まれた科学者が、これをキャッチできれば、大発明を生み出せることになる。近年、日本に、基礎研究発明が、多発しているのは、これらの数々の御働きに因る。また、金色の蛙、金糸を吐く蚕、金色の昆虫が、同様に多発しているのも、彼らが、物理学原理を学べず、この粉を素直に、キャッチした証拠に他ならない。)》 (Because it is invisible, if you neglect it, you will make a big mistake in value judgment. You can not see the effect of the Constitution on a daily basis, you can not see the effect of the French law on a daily basis. However, the effect of the Constitution is one country. As a reminder of the Holy Kannon, he is deceiving the prosperity of today's most prestigious companies in Japan. In the invisible world, about 100 years ago, the gold powder from the heavens that had been twisted down and poured into the United States from about 35 years ago was originally If a scientist who is only incorporated in the physics principle can catch this, he will be able to create a big invention.In recent years, basic research inventions have frequently occurred in Japan. The many works of these Also, golden moths, gold spider moths, and golden insects are also frequently occurring, as well as evidence that they did not learn the physics principle and caught this powder obediently. It must not be.) >>

へ、また、部屋1面・3面・4面等の囲い込み効果が、得られ、目前まで飛び出す映像情報の空間提供により、部屋単位ごとの販売が、価値あるものとなる。
新燃料電池類等の発電動力と インテリア類・家電類・ネット通信網類をセットにすれば、「動く部屋」としての車に 対抗しうる、「動かない車」として、一貫生産による、車と同レベルの、巨大な利益を生む、世界に向けた強い電機関連産業へと変遷し、成長していくものと 思われる。
In addition, the effect of enclosing the first, third, and fourth sides of the room is obtained, and by providing a space for video information that pops out to the fore, sales for each room unit become valuable.
By combining power generation power such as new fuel cells with interiors, home appliances, and internet communication networks, it is possible to compete with a vehicle that moves as a `` moving room ''. It is expected that the company will transform into a strong electrical industry for the world that generates huge profits at the same level and grows.

同様に、世界遺産の囲い込み映像情報・名俳優個々人の映像情報を、随時供給できれば、マリリン・モンローからのベット揺り動かしで、目覚め、オゥドリー・ヘップバーンと 共に寝間着姿で朝食を楽しみ、帰宅後、ベルサイユ宮殿 鏡の間で、マリー・アントワネットによる乾杯の合図で、友人・近所の方々との懇親パーティーを開き、途中、エルビス・プレスリーの飛び出す・飛び入り歌唱・プリンセス天功の同飛び入りイルージョンを、余興で楽しみ、パーティ後の入浴は、イグアスの滝に、飛び込まれたジャグジィーに浸かり、洗髪は、マレーシアのスコールで、済ませたのち、風呂上がりを、グランドキャニオンの吹き上げる渓谷風で、涼み、深々と雪降る白川郷で、子供に、オトギバナシを読んで寝かせ就け、自らは、自作の故郷の風景画像情報で、爺婆を慕いながら熟睡システム下のベットで、就寝する。 Similarly, if you can supply World Heritage heritage video information and video information of famous actors at any time, you can wake up with a rocking bed from Marilyn Monroe, enjoy breakfast in sleepwear with Oudrey Hepburn, and return home, Versailles Palace In the mirror, Marie Antoinette signaled a toast with friends and neighbors. On the way, Elvis Presley jumped out, sung in, and Princess Tengong's plunging illusion enjoyed and enjoyed the party. After bathing in Iguazu Falls, soaked in the jacuzzi that was jumped in, and after washing the hair with Malaysian squall, after taking a bath, in the gorgeous wind blown by the Grand Canyon, in Shirakawago where it was cool and deeply snowed , Let the child read the beetle and put it to sleep, In scenery image information, in the bet under sleep system while adores the Jibaba, to bed.

或いは、会社・家族から、立場上 孤立し疎外され、話し相手のペットも飼えない時、自机上の「A動画群」内の聞き手専用のペットや同俳優を前に、酒を片手に、トコトン愚痴と、不満を、聞いて貰い心情をスッキリとして、就寝する。 Or, when you are isolated and alienated from your company or family, and you can't keep the pets you talk to, you can use the alcohol in your own desk and the actors in the “A movie group” on your desk. And when I heard the dissatisfaction, I went to bed with a refreshing feeling.

翌朝、夫婦岩のご来光で、潮騒・潮風・潮香や、参拝者と共に、眩しげに 目覚める覚醒システム下のベッドで、休日の朝を、満足げに迎える。 The next morning, the couple's rocks will come together with the sea breezes, sea breeze, sea scent, and worshipers to wake up dazzlingly.

以上のモデルルーム1提案例としては、実現可能範囲にあり、その、効果は、計り知れず、車では、限界があり、ソフトウェアには、限界がなく、陸・海・空の各上・中・下を、自在に往来できる産業上の利用可能性分野迄、広がる。 The proposed model room 1 is in the feasible range, its effects are immeasurable, there is a limit in the car, there is no limit in the software, and each of the land, sea, and air above and inside・ Below, it expands to the industrial applicability field where you can come and go freely.

《 また、1予想例として大型量販店でトロンコンピューター用平面画像情報内臓のマイクロチップ=IC(集積回路)タグが、埋め込まれた衣類の 同チップ上にお客の携帯電話型画像情報立体化処理装置を かざすと、 メインコンピューター網、または、インターネット通信系網とのサーバー装置交信により、「同店プリントクラブ機で得た自顔付き360度画像情報に 同衣類着衣姿・歩行姿」が、瞬時に目前の立体画像情報画面で現れ、さらに、安価で、高速度の「同衣類の同本部・店在庫色・柄・同シリーズ衣類・同関連小物装着画面選択、同客嗜好または同目的先の街・風景・建物内の背景画面選択、知人近親者愛車ペットと一緒の時の同客の該衣服のバランスチェック用画面選択、同衣類予想購買者層用同店季節推奨衣類・同期間限定会員特売衣類紹介画面選択・同衣類宣伝画像情報画面・同衣類商品機能知識画面・同衣類掲載雑誌画面・同衣類デザイナー紹介画面・同衣類販売実績全国地域年代別 今売れてます 順位画面」「同店側としては、在庫管理・棚卸しに、利用でき」瞬時に目前の立体画像情報画面で、シミュレーションし 通販カタログ雑誌・新聞ちらし・各紙面類・街頭ポスター類・ネット画面上では、2次元バーコードに、該携帯電話機をかざして、前記ショッピング自体を 何時でも・何処でも・身近に・手軽に・リアルに・安価に・そして瞬時に、持ち運べ 楽しむ 消費活動の かなりの活性化が計られることが、近い将来始まりだすと思われる。》 << Also, as one prediction example, a microchip = IC (integrated circuit) tag with built-in flat image information for TRON computers at a large mass retailer is installed on the same chip of clothing as the customer's mobile phone type image information stereoscopic processing device By holding the server device with the main computer network or the Internet communication network, you can instantly see “the same clothing and walking figure in the 360 ° image information with your face obtained with the same print club machine”. Appears on the stereoscopic image information screen, and is cheap and high-speed “Choose the same clothing headquarters / store inventory color / pattern / series clothing / related accessory mounting screen selection, customer preference or destination / city / landscape”・ Selecting the background screen in the building, selecting the screen for checking the balance of the clothes of the customer when traveling with an acquaintance's relative's pet car Fixed member special sale clothing introduction screen selection, same clothing advertising image information screen, same clothing product function knowledge screen, same clothing publication magazine screen, same clothing designer introduction screen, same clothing sales results nationwide by region, and now selling ranking screen The store can be used for inventory management / inventory inventory. "Simultaneous simulation is performed on the current 3D image information screen. 2D barcode is available on mail order catalog magazines, newspaper leaflets, papers, street posters, and net screens. In addition, holding the mobile phone, the shopping itself can be carried around at any time, anywhere, at hand, easily, realistically, inexpensively and instantly. It seems to start in the near future. >>

ト、視中枢前部の該積層体に、中央部の目前まで突出した空間認識差異情報を潜在的に送り込み、現在のコンピューターでは真似できない極めて高度な視中枢内コンピューター=「輻輳融合画像情報伸縮創造機能」(確定融合画像情報に、移動視点画像情報を、矛盾なく 重ね合わせ融合する輻輳用左右視差創造機能」による目前まで飛び出す立体画像情報生成により、「従来の2つの網膜像を理想的形で提供(視差の問題点無い形での提供)すること」に伴なう約60年に及ぶ戦略的苦悶の呪縛から完全に開放できる波及効果が考えられる。   G, the spatial recognition difference information that protrudes to the front of the central part is potentially sent to the laminate at the front of the visual center, and an extremely advanced computer in the visual center that can not be imitated by the current computer = “Convergence fusion image information expansion and contraction creation” Function "(the function of creating right and left parallax for convergence that overlaps and merges moving viewpoint image information with definite fused image information without contradiction). There is a ripple effect that can be completely freed from the curse of about 60 years of strategic agony associated with “providing (providing in a form without parallax)”.

チ、従来の2つの網膜・視差を中心とした立体画像情報関連物普及の充分な阻止により前記関連物普及による平面画像情報の画像情報関連物の衰退から来る想定被害額の激減が計られ得る予測効果が考えられる。   H. By sufficiently preventing the spread of stereoscopic image information related products centering on the two conventional retinas and parallax, it is possible to drastically reduce the estimated damage amount resulting from the decline of the image information related materials of the planar image information due to the related product diffusion. Predictive effect can be considered.

リ、前項の理由により、平面画像情報から立体画像情報変換に伴なう平面画像情報製造設備の廃棄と立体画像情報の同設備導入の購買投資額が激減できる予測効果が考えられる産業上の利用可能性分野迄、広がる。(1参考例として、アナログ放送からディジタル放送へ切り替えるだけでも、日本全体の放送局では、設備投資額に1兆600億円掛かると試算されていた。)   Due to the reasons described in the previous section, industrial use is expected to have a predictive effect that the amount of purchase investment for the disposal of planar image information production equipment and the introduction of the equipment for stereoscopic image information accompanying the conversion of planar image information to stereoscopic image information can be drastically reduced. It extends to potential fields. (As a reference example, it was estimated that even if switching from analog broadcasting to digital broadcasting alone, broadcasting stations across Japan would cost ¥ 1,600.0 billion in capital investment.)

ヌ、プログレッシブ方式ハイビジョン放送は、1秒間60駒画像情報規格であるため、本両離輻輳融合画像情報技術導入により、現行放送のままで、全体画像情報が、目前まで飛び出す立体画像情報放送が、可能となり、また、インターネット通信によるハイビジョン放送並み高速通信(1秒間60駒画像情報規格)でも、目前まで飛び出す立体画像情報放送通信が、可能となる産業上の利用可能性分野迄、広がる。   Since progressive HDTV broadcasting is an image information standard for 60 frames per second, the introduction of this de-convergence fusion image information technology, the 3D image information broadcasting in which the entire image information jumps out to the present, In addition, even with high-speed communication (60-frame image information standard for 1 second) as high-definition broadcasting by Internet communication, stereoscopic image information broadcasting communication that pops out to the immediate extent can be expanded to the industrial applicability field.

従って、現衛星放送・現衛星通信・現インターネット通信・現ケーブルネット放送の 世界的活況と普及に貢献できる。(画像情報は、各国家・地域別固有の文字言語ではなく、世界共通の視覚言語であり、人類発祥の太古より、現代、そして、未来に至るまでに、共通して、使われて来たし、今後も、使い古され続けるであろう、高度であるが、初発の絵文字言語でもある。) Therefore, it can contribute to the worldwide activity and spread of current satellite broadcasting, current satellite communication, current Internet communication, and current cable net broadcasting. (Image information is not a written language unique to each country or region, but a visual language that is common throughout the world. It has been used in common from the ancient times of humanity to the present and the future. In the future, it will continue to be worn out, but it is also an advanced but the first emoji language.)

ル、個々の画像情報が、目前まで飛び出す立体画像情報放送では、通常画像情報放送番組に、個々の画像情報(極めて簡単な1例として;新ビタミン剤名ラベルつき瓶)を重ね、レイアー(層)画像情報入りのポイント信号と共に放送すれば、レイアー(層)画像情報入りポイント信号を、キャッチした両離輻輳融合画像情報用画像情報立体化処理装置(立体テレビジョン)は、新ビタミン剤名ラベルつき瓶(レイアー画像情報)のみを、顧客視聴者の目前・頭脳通過方法で、表示することができ、新ビタミン剤名・メーカー名を まさしく 脳裏に、焼き付けることになり(極めて簡単な1例として;選挙党名でも同じ)コマーシャル料金の増額に、貢献できる産業上の利用可能性分野迄、広がる。 In the stereoscopic image information broadcast in which individual image information jumps out to the foreground, the normal image information broadcast program is overlaid with individual image information (a very simple example; a bottle with a new vitamin drug name label) and a layer (layer) ) If it is broadcast together with the point signal with image information, the point information signal with layer (layer) image information is caught. Only the jar (layer image information) can be displayed in front of the customer's viewers and through the brain, and the new vitamin name / manufacturer name will be baked on the back of the brain (as an extremely simple example) The same applies to the names of the electoral parties). It will extend to commercial availability fields that can contribute to the increase in commercial charges.

ヲ、長時間視覚生態機能拒絶反応なく、目前画像情報を得ながら、顧客に、視聴してもらうためには、感動場面毎の両離輻輳融合画像情報使用以外に、顧客視聴者 凝視の俳優・凝視予測点 から手前の映像情報、または、該凝視俳優・凝視予測点 以外の全背景を、常時に近いように両離輻輳融合画像情報使用状態で、画像情報処理し提供する手法が、ある。
この方法は、特殊場面以外は単純ではなく、補間も必要なため、既存の映像情報ソフトの再生には、人手と時間を必要とするが、その苦労以上の感動を顧客視聴者にもたらすものと思われ、その後の購買行動に、決定的影響を 与えると思われる。
Wo, in order to get the customer to watch while getting the immediate image information without rejection of the visual ecological function for a long time, in addition to using both-convergence fusion image information for each moving scene, There is a technique for processing and providing image information in the state of using both-vergence fusion image information so that video information in the foreground from the gaze prediction point or the entire background other than the gaze actor / gaze prediction point is always used.
This method is not simple except for special scenes and requires interpolation, so it takes time and labor to reproduce the existing video information software, but it will bring more impression to the customer viewers than that effort. It seems that it will have a decisive influence on the subsequent purchasing behavior.

何故ならば、顧客視聴者感動(生態機能興奮)領域が、常時に近いような形で、仕掛けとして、既に 入っているからである。
(顧客視聴者は、興奮を、押さえようとすれば、中心俳優・同予測点に、視点を移せば良い。)
This is because the area of customer audience excitement (ecological function excitement) has already entered as a mechanism in a form that is close to usual.
(Customer viewers should move their perspective to the central actor / predictive point if they want to suppress excitement.)

(従来の、目前まで飛び出す映像情報は、顧客視聴者の興奮を、引き出し、興行的に、成功させるため、強い立体感を 無理に作り出していたため、強い輻輳角の状態(=強い寄り目状態)を 顧客視聴者は、強いられ、寄り目常態の逃げ場、休息の場、休憩の時、が、全く設けられていなかった。 (Conventional video information that pops out to the fore has created a strong three-dimensional effect in order to bring out the excitement of the customer's viewers and make it successful and entertaining, so a strong convergence angle state (= strong cross-eyed state) The customer viewers were forced to have no escape, rest, or break at all.

従って、約30分映像情報による短時間映像情報の興行には、成功しても、通常映像情報時間(2時間〜2時間半)による、より、広い市場には、決して参入できず、限定的、特殊環境の市場に、閉じ込められていた。)   Therefore, even if it succeeds in the promotion of short-time video information with about 30 minutes of video information, it can never enter the wider market due to the normal video information time (2 hours to 2 and a half hours), limited It was trapped in a special environment market. )

(本発明の前記手法では、顧客視聴者に、凝視の俳優・凝視予測点という寄り目常態の逃げ場、休息の場、休憩の時、が、設けられてるため、従来より、長時間視聴に耐え、且つ、輻輳融合という強い立体感から来る、興奮する感動体験をも、伴っているため、従来の成功事例同様、興行的にも、必ずや 成功を納めるものと思われる。) (In the above-described method of the present invention, the customer viewer is provided with a stark actor, gaze prediction point, a normal escape spot, a resting place, and a break, so that it can withstand viewing for a long time than before, In addition, since it is accompanied by an excitement and excitement that comes from the strong three-dimensional feeling of convergence, it seems that it will surely be successful in the box office as well as the previous successful case.)

また、既存の現行技術レベルのディジタルビデオディスク(DVD)内に、納まっている映像画像情報の主役・脇役の登場人物の顔情報部分に、観察視聴者側(当人・恋人・家族・友人、もしくは、ペットなど)の顔画像情報を、重ね合わせ、観察視聴者関係者出演のオリジナル映像画像情報を、楽しんだり、同ディジタルビデオディスクを造り出すことができる。   In addition, in the existing digital video disc (DVD) of the current technical level, the observation viewer side (person, lover, family, friend, Or, the face image information of a pet or the like) can be superimposed to enjoy the original video image information that appeared in the audience related to the viewer, or the digital video disc can be created.

詳細すると、前記主役・脇役の登場人物の顔情報が、見える映像情報部分で、帽子や髪型などを除いた必要部分に、 In detail, the face information of the characters in the main role and supporting role is the visible video information part, in the necessary part excluding the hat and hairstyle,

A;頭の中心部と顔の中心部位置から生まれる上下左右360度の顔向きの空間的位置方向性を特定し緯度・経度の様に、空間位置の顔向きとその中心点位置のディジタル位置符号を付けておく。 A: The spatial position directionality of the face direction of 360 degrees up, down, left and right born from the center part of the head and the face center part is specified, and the face direction of the spatial position and the digital position of the center point position, such as latitude and longitude Add a sign.

B;Aと同様に、顔への入射光と反射光の空間的位置方向性を特定し緯度・経度の様に、ディジタル位置符号を付けておく。 B: Similarly to A, the spatial position directionality of incident light and reflected light on the face is specified, and a digital position code is added like latitude and longitude.

C;顔の色相・明度・彩度の各別情報を、最高位度・中間位度・最低位度のサンプルディジタル位置符号を付けておく。 C: A sample digital position code of the highest degree, intermediate degree, and lowest degree is attached to each information of the hue, brightness, and saturation of the face.

D;該顔の大きさ情報に、ディジタル符号を付け、映像情報上の顔の大きさを特定させる。 D: A digital code is added to the face size information to specify the face size on the video information.

E;帽子や髪型などを除いた必要部分は、他の顔画像情報が、重なった場合、重なった他の顔画像情報を、優先し、表示させるディジタルプログラムやディジタル符号を付けておく。 E: When other face image information is overlapped, a necessary part excluding a hat or a hairstyle is given a digital program or a digital code for giving priority to the other face image information to be displayed.

前記A・B・C・D・Eの各ディジタル符号情報を、映像情報ディジタルビデオディスク販売前に、事前に、該映像情報内の必要箇所に、付け加えることにより、観察視聴者関係者自信の前記A・B・C・Dを、事前に登録している立体画像処理装置では、該映像情報内の必要箇所で、該映像画像情報の主役・脇役の登場人物の顔情報部分に、前記A・B・C・D・Eの各ディジタル符号情報(A・B・C・D・E)から、事前に撮影登録していた観察視聴者関係者自信の前記A・B・C・Dを、特定でき、特定した、観察視聴者関係者自信の顔情報を、映像画像情報の主役・脇役の登場人物の顔情報部分の上に重ね、前記A・B・C・Dのディジタル符号情報を、入れ換えて、画像情報表示すれば、さも、観察視聴者関係者が、出演しているかの如き、観察者映像融合のオリジナル映像画像情報を、楽しんだり、同ディジタルビデオディスクを造り出すことができることになる。   By adding the digital code information of A, B, C, D, and E to necessary portions in the video information in advance before selling the video information digital video disk, In the stereoscopic image processing apparatus in which A, B, C, and D are registered in advance, the A / B / C / D is added to the face information portion of the main character / supporting character in the video image information at a necessary location in the video information. Identify the A, B, C, and D of the audience related to the viewer who was registered in advance from the digital code information (A, B, C, D, E) of B, C, D, E Yes, the identified face information of the audience related to the viewer is superimposed on the face information part of the main character / supporting character in the video image information, and the digital code information of A, B, C, and D is replaced. If the image information is displayed, the person concerned with the viewer is appearing. Such as either the original video image information of the viewer image fusion, enjoy, will be able to produce the same digital video disk.

事前に撮影登録していた観察視聴者関係者自信の前記A・B・C・Dは、マネキンのように、喋る必要性は、ない。(やや、微笑んでいる必要性は、あると思われる。)   The above-mentioned A, B, C, and D of the self-confidence of the viewers and viewers who have been registered in advance are not required to speak like a mannequin. (There seems to be a need to smile a little.)

何故ならば、テレビ東京放送局「オウ マイキー、ハードコア」などのマネキンだけ出演のテレビジョン番組や、コマーシャルメッセージが、商業的に成立し、人気さえ出ているからである。   This is because television programs and commercial messages that appear only on mannequins such as TV Tokyo Broadcasting Station “Oh My Key, Hardcore” are commercially established and even popular.

また、能や人形劇でも、顔は、変化していないのに、我々が、感情移入できるのは、我々の脳機能の利点でもある。   It is also an advantage of our brain function that we can empathize with Noh and puppet theater even though our faces have not changed.

また、事前に撮影登録していた観察視聴者関係者自信の前記A・B・C・Dは、該映像画像情報の主役・脇役の登場人物の顔情報部分に、重なるため、完全に下層顔情報が、隠れるためには、事前に、撮影登録していた観察視聴者関係者自信の顔表示の大きさの微調整が、1回必要である。また、その他の重ね画像情報部分で、優先最前面層・中層・下層の微調整も、場面によっては、必要と思われる。   In addition, since the A, B, C, and D of the audience related to the observation viewer registered in advance are superimposed on the face information portion of the main character / supporting character in the video image information, the lower face is completely removed. In order to hide the information, it is necessary to finely adjust the size of the face display of the observation viewer related person who has been registered in advance. In addition, in other superimposed image information parts, fine adjustment of the priority frontmost layer, middle layer, and lower layer may be necessary depending on the scene.

これにより、映像情報上の顔が、多少大きかったり、小さかったり、すると思われるが、縫いぐるみ人形でも、拒否感は、生まれないため、観察視聴者に、受け入れられると思われる。   As a result, the face on the video information seems to be somewhat larger or smaller, but even with a stuffed toy doll, there is no sense of refusal, so it can be accepted by the viewer.

また、前記処理Cにおける、顔の色相・明度・彩度の各別サンプルディジタル情報は、細かく設定するほどに、元の映像画像に、顧客の顔が、高融合化する事になる。   Further, as the sample digital information for each of the hue, brightness, and saturation of the face in the process C is set more finely, the customer's face becomes highly integrated with the original video image.

また、前記当事者人形顔を、更に動画レベルに高めるソニー木原研究所のモーションポートレート(1枚の無表情写真から、瞬時に各部の顔の表情を重ね表示する技術)の応用は、当事者の感情移入ができるか否かの技術レベルの完成度(事実と 異なる動きを、必要以上に見入っている顧客は、見抜き、違和感を膨らましてくるからである。テレビジョンゲームを楽しむ、男性は、満足しても、化粧で、自分の顔の動きを、毎日見ている女性ほど、嫌がり、嫌がれば、1加勢の売上による成功となり、会社に結局損害を、与えることになると思われる。)が、市場定着・拡大の鍵と思われる。   The application of Sony Kihara's motion portrait (a technology that instantly overlays the facial expression of each part from a single expressionless photo), which raises the party doll's face to a video level, Technical level of completeness of whether or not it can be transferred (customers who see more than necessary movements that are different from the facts will overlook and inflate a sense of incongruity. Men who enjoy television games are satisfied. However, women who look at their facial movements every day with makeup are disliked, and if they dislike it, it will be a success with one additional sales, which will eventually cause damage to the company.) It seems to be the key to establishing and expanding the market.

本技法の最も重要で、大成功を、納める要因は、観察視聴者自信が、映像情報内に、参入し、何度も、様々な顔設定条件下で、映像情報を、個人・家族・知人間で、楽しめることにある。   The most important factor of this technique, the reason for paying great success, is that the viewer's confidence in the viewer enters the video information. To be enjoyable by humans.

何故ならば、あらゆる感動は、多人数の共感・共鳴と言う、映像情報への感情移入の度合いが、強いほど、成功するという決定権を持っているからである。   This is because all emotions have the right to decide to succeed, the greater the degree of empathy / resonance of a large number of people, the greater the degree of emotional transfer to video information.

多少、映像情報対価が、高くても、観察視聴者は、納得し喜んで、購入して頂けると思われる。   Even if the price of video information is somewhat high, the viewers will be convinced and willing to purchase.

何故ならば、観察視聴者主演の該映像情報ディジタルビデオディスクは、世界に、唯一のディジタルビデオディスクとなるからであり、また、家族ぐるみで、参加し、幾通りも、別のオリジナル作品を 楽しめるからである。   This is because the video information digital video disc starring the viewer is the only digital video disc in the world, and you can participate as a family and enjoy other original works in many ways. Because.

また、両離輻輳融合画像情報において、目前まで迫ってくる興奮的感動を得るためには、携帯型以外は、部屋いっぱいの大きさの画像情報が必要となり(指を目前に立て、片目づつ見た指の左右の位置が、必要画面の左右端の大きさとなる。)、この事により、顧客視聴者は、映像情報内に、取り込まれ、心酔することになる。   Also, in order to obtain the excitement that comes to the forefront in both deconvergence fusion image information, image information of the full size of the room is required except for the portable type (with your finger in front and looking at each eye The left and right positions of the fingers are the size of the left and right edges of the necessary screen.) This will cause the customer viewers to be captured in the video information and become intoxicated.

従って、以上のことから、部屋1面レベルの大型画面表示機器の需要は、益々、高まり、大型画面に耐えうる ハイビジョン画像情報以上の高画質画像情報が、最低限必要となり、また、既存の映像情報量も、前記新提供の数手法技術により、1.2〜1.8倍以上に増えることになると思われる。   Therefore, the demand for large-screen display devices at the level of one room in the room is increasing, and high-quality image information more than high-definition image information that can withstand large screens is required at a minimum. The amount of information is expected to increase by 1.2 to 1.8 times or more by the newly provided number technique.

従って、ハイビジョン画像情報を 2時間までしか、録画収納保持できない現行技術レベルのディジタルビデオディスク(DVD)では、残念ながら、容量不足となることは、必定と思われる。   Therefore, unfortunately, the current technology level digital video disc (DVD), which can store and hold high-definition image information only for up to two hours, unfortunately seems to be inadequate.

以上により、米国における投射型大画面表示機器の普及は、前記需要欲求を、導入期として、さらに促進し、他の映像情報技術(ハイビジョンの16倍映像情報技術など、情報量を増やすことは、在っても減らすことには、繋がらないと思われる。)の、開発技術も、否応なく、促進されることになると思われる。 As described above, the spread of projection-type large-screen display devices in the United States further promotes the demand desire as an introduction period, and increases the amount of information such as other video information technologies (16 times video information technology of high vision, Even if it exists, it seems that it will not be connected to the reduction.) Development technology will be inevitably promoted.

また、本新技術前記手法導入の映画画像情報(2時間以上の情報量必要)収納のディジタルビデオディスク(DVD)の普及と、その増加は、新未体験の映像情報世界の顧客視聴者への新提供、既存の1本の映画画像情報ソフト(特に1時代を築いた名作)で、再度利益を生み出し(高額な監督料・俳優出演料は、一切不要)、映像情報ソフト創作演出デザイナー・映像情報ソフト所有企業の収益活動に、貢献できる(従来の映像情報撮影の手法も、前記補間が、しやすいよう徐々に、変化、工夫されて行くことになると思われる。)産業上の利用可能性分野迄、広がることになる。 In addition, the spread of digital video discs (DVDs) storing movie image information (information amount required for two hours or more) introduced by the above-mentioned new technology will increase the number of new and unexperienced video information customers in the world. Newly provided, existing movie image information software (especially masterpieces that have built an era) will generate profits again (no expensive director fees or actor appearance fees are required), and video information software creation production designer / video Can contribute to profit activities of companies that own information software (conventional video information shooting methods are likely to be gradually changed and devised so that the interpolation can be easily performed) Industrial applicability It will spread to the field.

ワ、平面画像情報が、目前まで飛び出す立体画像情報に変換できるため、平面画像情報の画像情報関連物の資産評価を前去比200%+α価(平面画像情報は1画面に対し立体画像情報は少なくとも2倍の2画面以上必要なため)に上げられるため、映像情報資産所持の法人(主に、前記ディジタルビデオデスク参加米国映像情報ソフト会社)・資産家の資産評価が将来上がり得てもよく、また、同上場法人の株価も将来上がり得るため、同株主の資産も上がり得る波及効果が考えられる産業上の利用可能性分野迄、広がる。 Since the plane image information can be converted into the 3D image information that pops out to the front, the asset evaluation of the image information related object of the plane image information is compared with the previous ratio 200% + α value (the 3D image information is 1 screen for the 3D image information. The asset evaluation of corporations with video information assets (mainly US video information software companies participating in the digital video desk) and asset owners may increase in the future. In addition, since the stock price of the listed corporation can also rise in the future, it will extend to the field of industrial applicability where a ripple effect that can raise the assets of the shareholder can be considered.

カ、2005年2月1日、日本経済新聞紙上で、韓国サムスン社より、32インチサイズ・厚さ39cm・価格15万円代の1インチ5千円以下のブラウン管式テレビジョンが、発表された。(韓国LG電子社でも同インチサイズ・厚さ39.3cm・同価格似のブラウン管式テレビジョンが、既に、発表されている。)同じ市場で戦えば、価格下落、収益悪化、過剰供給をもたらし、敗者は、当事業撤退となる。 K, February 1, 2005, on the Nihon Keizai Shimbun, Samsung, Korea, announced a 32-inch size, thickness 39cm, price 150,000 yen CRT television less than 1 inch 5,000 yen . (Korean LG Electronics has already announced a CRT television of the same inch size, thickness 39.3cm, and the same price.) Fighting in the same market will result in lower prices, worsening profits, and excessive supply. The loser will withdraw from the business.

富の源泉を源泉足らしめているのも、顧客市場を形成しているのも、同じ個々人の欲の方向性である。(一般的な人の欲の方向性を満たすものが、富であり、富を求心力の中心として、中心である富の各運動特性から、同特性下の社会体制・同特性下の政治体制・同特性下の経済体制・同特性下の市場形態が、形成され、同特性下の各活動が加わる。結果、我々一般人は、自身の欲の方向性故に、各富に、支配されることになる。非一般人である釈迦の現空間への執着欲を捨てる修行欲も、明白な欲の方向性であり、欲の方向性内に含まれる。欲の方向性なくして、人は、自覚して生きて行くことができない。)   It is the direction of the desire of the same individual that makes the source of wealth a source and forms the customer market. (It is wealth that satisfies the general direction of human greed. We have wealth as the center of centripetal force. From the movement characteristics of wealth, which is the center, from the social system under the same characteristic, the political system under the same characteristic, An economic system under the same characteristics and a market form under the same characteristics are formed, and each activity under the same characteristics is added, and as a result, the general public is controlled by each wealth because of the direction of their own greed. The apprenticeship of giving up the current space of Buddha, who is a non-general person, is also a clear direction of greed and is included in the direction of greed. Can't live alive.)

人の欲市場の方向性は、
A;魅力ある欲市場の方向性を知れば、現市場欲の方向性は、萎縮しだし消えてなくなると言う特性を持つ。
The direction of human greed market is
A: If we know the direction of the attractive greed market, the direction of the current market greed has the characteristic that it begins to shrink and disappears.

B;個々人の欲市場の方向性には、満足と言う通過点的限界が、存在する。 B: There is a pass-through limit of satisfaction in the direction of the individual greedy market.

C;個々人の欲市場の方向性には、飽きると言う通過点的限界が、存在する。 C: There is a passing point limit that people get tired of in the direction of individual greedy market.

D;個々人共通の大きな欲市場の方向性と、個々人個別の小さな欲市場の方向性が、存在している。 D: There is a direction of a large greedy market common to individuals and a direction of a small greedy market for each individual.

E:個々人の羨ましい、欲しい、○○したい、望ましい欲市場の方向性は、欲の方向性から発生している。 E: Encouraging, wanting, and wanting to want each person's enviable, desirable greed market direction arises from the direction of greed.

F;個々人の恨み、つらみ、嫉み、妬みの方向性は,欲の方向性から発生している。 F: The direction of each person's itch, grudge, itch, and itch originates from the direction of greed.

G;個々人全ての欲市場の方向性は、自転・公転しながら、上昇する現空間の上昇ステージの影響下にあり、このステージが持つ各方向性の影響を強く受ける。 G: The direction of the greed market of all individuals is under the influence of the ascending stage of the present space that rises while rotating and revolving, and is strongly influenced by each direction that this stage has.

上昇する現空間の各上昇ステージは、360種の方向性を持つ各不連続体から形成され、該空間は、該空間が持つ大・小数10種類の各因子で、順を追ってこのステージを、各々踏んで、留まったり、もしくは、時に後ずさりしながらも、螺旋階段状(各市場方向性が直線であるため、ずれが発生してくる。)に、これを登り、上昇し、大・小の各因子が、縁であるこのステージとの織りなしから、様々な時の様態を 醸し出している。 Each ascending stage of the ascending current space is formed from each discontinuous body having 360 kinds of directions, and the space is a factor of 10 kinds of large and small that the space has, and this stage is followed in order. Stepping on each of them, staying, or sometimes going back, but climbing and climbing up and down in a spiral staircase shape (because each market direction is a straight line) Each factor brings about various aspects of the situation without having to weave with this stage as the edge.

H;この上昇する現空間の影響下のため、これで満足と言う市場常態がなくなり(個々の満足は、時間経過と比例し、飽きと呼ばれるようになる。)、欲市場の方向性の固定性がなくなり、前記不連続体ステージに対応した無限連鎖の欲市場の方向性をもつ。 H: Under the influence of this rising current space, the market normality of satisfaction disappears (individual satisfaction is proportional to the passage of time and is called bored), and the direction of the desire market is fixed. It has the direction of a greedy market with an infinite chain corresponding to the discontinuous stage.

I;現ステージ、次期ステージの各方向性が把握できれば、現欲市場、次期欲市場の各方向性も、照準を合せやすくなる。 I: If each directionality of the present stage and the next stage can be grasped, each directionality of the present desire market and the next desire market can be easily aimed.

J;個々人も、企業も、各国家も、現空間が持つ360種の方向性を持つ各不連続体の数ステージを、各自の因子で踏んでいるため、この事により、得意、不得意の各個性・各特性が、発生していると思われる。 J: Individuals, companies, and nations are taking advantage of the factors involved in several stages of discontinuities with 360 directions in the current space. Each individuality and each characteristic seems to have occurred.

(該360種の方向性を持つ不連続体は、現代唯物科学技術では、見ることができないが、その存在を概念として、歴史的に、どなたでも認識でき、また、公知の概念として、どなたでも見て、把握することができる。また、見える世界の細胞内の遺伝子とは別である。企業・国家・現空間に遺伝子は存在しない。 (The discontinuities with 360 kinds of directions cannot be seen in modern material science and technology, but anyone can recognize their existence as a concept, and anyone can recognize it as a known concept. It can be seen and grasped, and it is separate from the genes in the cells of the world that can be seen.

歴史形成の力を発揮しながら、既知の概念で在りながら、現代唯物科学技術では見て、検証できないため、その存在・種別は、どなたが見ても、殆ど無視されるか、発明・発見が、不足し遅れているか、現在の研究が、集中力注入方向性を、大きく誤っているか、のいずれかと思われる。本概念の発生のメカニズムは、歴史形成の力を発揮しているため、魂体発生・同機能の各メカニズムと大きく関わって来るものと 思われる。 While being able to demonstrate the power of history formation and exist in known concepts, it cannot be verified with modern material science and technology, so its existence / type is almost ignored by anyone, invention / discovery It seems that either the lack of or delay is present, or the current study is largely wrong in the direction of concentration injection. The generation mechanism of this concept exerts the power of history formation, so it seems to be greatly related to each mechanism of soul body generation and function.

また、釈迦が、説いたカルマと関係して来ると予測される。数例あげると、
「何不自由無く恵まれて、育てられた者が、29才で、無を求めて出家しこれに成功する」・「幼児教育に成功した企業が、ゲーム会社を子会社化して、これに成功する」・
「別のゲーム会社が、飲食事業で、成功する」、および、
「演技で成功している女優が、子を 卵で産みたいと言い出す」
以上の例は、何ら、繋がっていない事象であるが、既知の該360種の不連続体上では、隣り合った不連続体であることに、気付かされる。
It is also predicted that Buddha will be associated with the karma he preached. Some examples:
“Those who are blessed and raised without any inconvenience will be 29 years old, willing to go home for nothing, and will succeed in this.” “A company that has succeeded in early childhood education will make a game company a subsidiary and succeed in this.”・
"Another game company succeeds in the restaurant business", and
`` Actress who is successful in acting says he wants to lay a child with eggs ''
The above example is an event that is not connected at all, but on the known 360 types of discontinuities, it is noticed that they are adjacent discontinuities.

つまり、不連続体と言えども、その順番までもが、不連続では、ないこと、また、1以上の成功因子が、1種〜3種の不連続体を踏み、時系列で各現象を、発生させていることが、観察される。) In other words, even if it is a discontinuity, the order is not discontinuous, and more than one success factor steps through one to three discontinuities, and each phenomenon in time series, It is observed that it is generated. )

従って、今の時代に、白黒テレビジョンを販売しても、欲の方向性は、刺激されず、市場形成できない。 Therefore, even if you sell black and white television in this era, the direction of greed is not stimulated and you cannot form a market.

大ヒット販売の記録が、連続しないのは、無限で不連続な人の欲の方向性を、的確に把握し、刺激できていないからであり、この欲方向性の特性を、的確に把握し、自らも対応する新ステージを獲得分化し、該特性を刺激し続ければ、大ヒットは、続き収益を確保し続けることになる。 The reason why the records of big hit sales are not continuous is that the direction of desire of an infinite and discontinuous person is not accurately understood and stimulated, and the characteristics of this desire direction are accurately understood. If you continue to acquire and differentiate the corresponding new stages and continue to stimulate the characteristics, the big hit will continue to secure profits.

自らの各因子を、見極めた上で、自企業活動における、有限なる技術力・同販売力・同資金力は、すべてこの得意とする欲市場の方向性と直結し、現進行不連続体空間に強力に貢献することにより、強力な長期収益力に転化でき、収益を上げることができると思われる。 After ascertaining each factor, the finite technological power, sales power, and financial power in the company's own activities are all directly linked to the direction of the greedy market that they are good at. By making a strong contribution to this, it is possible to convert to a strong long-term profitability and increase profits.

つまり、有限なる技術力は、顧客視聴者に取って、現欲市場の方向性が、消え去るほどの次期欲市場の方向性を形成できる技術をキーテクノロジーとし、有限なる販売力は、顧客視聴者個々人の潜在する小さな欲市場の方向性を、細やかに拾い上げ生産供給できる体制で、前記キーテクノロジーの個別の肉付けを行い、有限なる資金力は、現欲市場の普及販売価格帯を、資金規模のメリットで、大規模多品種生産により実現し、水面下では、次期欲市場の方向性に備え、分社化しておくことを、時系列、および、同時進行形で行うことにより、収益が確保され続けると思われる。 In other words, limited technology is a key technology that can form the direction of the next greedy market so that the direction of the greedy market disappears for the customer viewer, and the limited sales power is the customer viewer With a system that can carefully pick up and supply the potential direction of the small potential market of each individual person, the above-mentioned key technology is individually fleshed out, and the limited funding power is the spread sales price range of the current market. Benefited by large-scale, multi-product production, and underwater, profits continue to be secured by preparing for the next greedy market direction and separating the company in time series and simultaneously I think that the.

本発明における、立体画像情報形成技術や ブラウン管では、難しいと思われる焦点・視点移動可能構造体の技術は、顧客視聴者に、宣伝し、欲の方向性を刺激することになり、新たな欲市場の方向性を形成拡大することになると思われる。   In the present invention, the technology for forming stereoscopic image information and the structure of a structure capable of moving a focus / viewpoint, which is considered to be difficult with a cathode ray tube, are advertised to customer viewers and stimulate the direction of desire. It is likely to shape and expand the market direction.

従って、唯、大画面サイズ・1インチ5千円以下と言う欲市場の方向性を、結果的に取りあえず萎縮させ、価格下落、収益悪化、過剰供給からの敗者当事業撤退の構図の渦に、巻き込まれないための産業上の利用分野に、大いに貢献できると思われる産業上の利用可能性分野迄、広がる。 Therefore, as a result, the direction of the greedy market, which is a large screen size of less than 5,000 yen per inch, is deflated for the time being, resulting in a vortex of the composition of price drop, profit deterioration, and withdrawal from the business. It extends to the industrial applicability field that seems to be able to greatly contribute to the industrial use field not to be involved.

また、前記欲の方向性が、歴史経過形成的にも、人の本質形成的にも、現市場形成的にも、我々を支配し続けている以上、個々人が、この欲の方向性を見定め・拡張することは、個々人の魂体の方向性を見定め・拡張していることに、なると充分予測される。 In addition, as the direction of greed continues to dominate us both in the course of history, in the formation of human essence, and in the formation of the current market, each individual determines the direction of greed.・ Expansion is fully predicted to be the identification and expansion of the direction of individual soul bodies.

ヨ、図41・42・44・45、および、46を 持ちいて、
「特定A5感空間情報状況内容から判断できる空間情報提示」(図46の183)の最適特定A5感空間情報提示の処理実施(図46の186)例を、極めて少なく、極めて簡単な産業上の利用可能性として、数例挙げると。
Yo, holding the figures 41, 42, 44, 45, and 46,
An example of the implementation of the optimal specific A5 sense space information presentation process (186 in FIG. 46) of “spatial information presentation that can be judged from the contents of the specific A5 sense space information situation” (183 in FIG. 46) is extremely small and very simple on the industry. A few examples of availability.

車・飛行機・船舶・鉄道などの代表類例的に、見受けられる「乗り物空間」(図44の300)では、極めて簡単な最良の形態例として、エンジン・回転体・移動体などの雑音・振動を、計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した雑音・振動とは、逆位相のディジタル雑音・ダンパーによる振動の発生を起こす行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、静音・不振動の特定A5感空間情報を持つ快適な「乗り物空間」が、実現できる。(図46の186)   As typical examples of cars, airplanes, ships, railways, etc., in the “vehicle space” (300 in FIG. 44), noise and vibration of the engine, rotating body, moving body, etc. are considered as the very simple best examples. After measuring and specifying the A5 sensation space information scene situation (183 in FIG. 46), the measured noise / vibration is the optimum identification of the action that causes the occurrence of vibration due to the digital noise / damper of the opposite phase. By executing selection processing as five sense information processing of A5 sense space information, a comfortable “vehicle space” having specific A5 sense space information of silence and non-vibration can be realized. (186 in FIG. 46)

住空間・倉庫・事務所・工場・住宅街などの代表類例的に、見受けられる「建物空間」(図44の300)では、極めて簡単な最良の形態例として、窓・ドア・開閉物などの開閉状態・ロボットによる自動パトロール、および、監視カメラ類を、常時計測監視し、計測監視した開閉状態や不審者発見の特定A5感空間情報場面状況の、異状時確定後(図46の183)、緊急通報の発生通報・遠隔操作・遠隔操作で威嚇行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、防犯・警備体制が、常時働く特定A5感空間情報を持つ監視警備された安全な「建物空間」が、実現できる。(図46の186)   In typical “building spaces” (300 in FIG. 44) such as living spaces, warehouses, offices, factories, residential areas, etc., as the very simple best form examples, such as windows, doors, opening and closing objects, etc. Open / closed state / automatic patrol by robots and monitoring cameras are always measured and monitored, and after confirmation of abnormalities in the specific A5 sensation space information scene situation of the opened / closed state and suspicious person discovery monitored (183 of FIG. 46), Emergency Accident Reporting / Remote Operation / Remote Operation Threatening Action is selected as 5 sense information processing of optimal specific A5 sense space information, and the crime prevention / security system is always working. A safe “building space” with a guard can be realized. (186 in FIG. 46)

社内ネットワーク、ローカル・エリア・ネットワーク、インターネットなどの代表類例的に、見受けられる「サイバー空間」(図44の300)では、極めて簡単な最良の形態例として、フレキシブル・コンパクトディスク不要下における、メール・ファィル・サイト・ログデータ・サーバー記録・サーバー持ち出しが、何時・誰が・どの様に処理したかを、全て記録し、ウィルス対策ソフトの更新を適時行うことを処理し、常時電子的計測監視し、電子的計測監視した予想外のサイバー内攻撃発生の特定A5感空間情報場面状況の異状時確定後(図46の183)、緊急通報の異常発生通報・遠隔分析操作・人為的ミス・情報漏洩の可能性を通報する行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、ネットワークの防犯・警備体制が、常時働く特定A5感空間情報を持つ監視警備された安全な「サイバー空間」が、確保できる。(図46の186)   In the “cyberspace” (300 in FIG. 44), which is typically seen as representative examples of in-house networks, local area networks, the Internet, etc., as a very simple best mode example, mail / File, site, log data, server record, server take-out, when, who, and how it was processed, record everything, update anti-virus software in a timely manner, constantly monitor and measure electronically, Unexpected cyber-attacks that have been electronically measured and monitored A5 sensation spatial information After confirming the situation of the situation (183 in FIG. 46), emergency call notification, remote analysis operation, human error, information leakage By performing the selection process as the five-sense information processing of the optimal specific A5 sense space information, the act of reporting the possibility Crime prevention and security system of the network, safe was monitored security with a specific A5 sense of spatial information to work all the time "cyber space" is, can be secured. (186 in FIG. 46)

社内ネットワーク、ローカル・エリア・ネットワーク、インターネット、通信ネットワーク、および、双方向有線ネットワークなどの代表類例的に、見受けられる「サイバー空間」(図44の300)では、極めて簡単な最良の形態例として、メール・ファィル・サイト・ログデータ、および、ネットオークションサイトなどで、物品やサービスなどの情報と販売を提供し、これを常時5感覚で、計測し、計測した情報の中に、物品やサービスなどの顧客購入意志情報が存在する場合、特定A5感空間情報場面状況の、購入意志確認確定後(図46の183)、購入契約締結手続に必要な諸行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、物品やサービスの販売購入契約が、結ばれる、迅速な契約社会が、常時機能する特定A5感空間情報を持つ高効率・低費用の「サイバー空間」が、提供できる。(図46の186)   In the “cyberspace” (300 in FIG. 44) that can be seen as representative examples such as an in-house network, a local area network, the Internet, a communication network, and a two-way wired network, Provide information and sales of goods and services via e-mail, site, log data, and online auction sites, etc., and always measure them with 5 senses. If the customer purchase will information exists, after confirming the purchase intention confirmation of the specific A5 sense space information scene situation (183 in FIG. 46), the actions necessary for the purchase contract conclusion procedure are determined by the optimum specific A5 sense space information. As a five-sensory information processing, a quick contracting company that sells and purchases goods and services by executing selection processing. But, "cyber space" of high efficiency and low cost with a specific A5 sense of spatial information to function constantly, can be provided. (186 in FIG. 46)

金融機関社内ネットワーク、ローカル・エリア・ネットワーク、インターネット、通信ネットワーク、および、双方向有線、もしくは、同無線ネットワークなどの代表類例的に、見受けられる「金融サイバー空間」(図44の300)では、極めて簡単な最良の形態例として、メール・ファィル・サイト・ログデータ、および、ATM(オートメイテッドテラーマシン)などで、金融商品や振り込み・支払い・預金、引き出し、および、入会などの手続サービスの情報とサービス行為を提供し、これを常時5感覚で、計測し、計測した情報の中に、金融商品や手続サービスの顧客依頼意志情報が存在する場合、特定A5感空間情報場面状況の、依頼意志確認確定後(図46の183)、依頼契約締結手続に必要な諸行為と依頼行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、金融商品や手続サービスの手続依頼契約と依頼行為が、実行される、迅速な金融社会が、常時機能する特定A5感空間情報を持つ高効率・低費用の「金融サイバー空間」が、提供できる。(図46の186)   In the “financial cyberspace” (300 in FIG. 44) that can be seen as representative examples such as financial in-house networks, local area networks, the Internet, communication networks, and two-way wired or wireless networks, Simple examples of best forms include mail files, site log data, ATM (automated teller machine), etc., financial products and information on procedural services such as transfers, payments, deposits, withdrawals, and memberships. Provide service action, measure it with 5 senses at all times, and if there is customer request will information of financial products and procedural services in the measured information, confirm the request will of specific A5 sense space information scene situation After confirmation (183 in FIG. 46), the necessary actions and request actions for the procedure for concluding the request contract are A specific A5 sense space where a prompt financial society is always functioning by executing a process request contract and a requested action of financial products and procedure services as a five sense information processing of fixed A5 sense space information. A high-efficiency, low-cost "financial cyberspace" with information can be provided. (186 in FIG. 46)

5感覚情報を 表示する「ディジタル空間」(図41の302・図44の300)では、極めて簡単な最良の形態例として、「実際の空間」(図41の303・図44の300)における5感覚情報を 計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した5感覚情報から、「ディジタル空間」内の表示画面上に、対応する反応5感覚情報を 表示する行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事(実際の空間における、風向き・光の向き・影の方向・香りの方向・表示画面の動的傾き方向の変化・「表示画面部品で、妨げられ隠れた人、物の隠れた部分の表示画面上での表示」・「表示画面へ飛び込む人、物」・「表示画面から飛び出す人、物」・「実際の空間における音が、ディジタル空間内で、エコー・こだまする音発生」・「実際の空間で、表示画面を、左右上下に擦りずらす、捲るように触れる、押す、引っ掻く、および、擦ると、それに対応して、ディジタル空間内の表示画面上の情報が、左右上下に比例してずらされる、捲られる、凹む、引っ掻き傷が付く、および、煙発生や情報が薄くなる・消える反応を、ディジタル表示する」、および、「実際の空間で、仮想・架空のドラム・ピアノを叩くと、そこから発生するする脳の表面筋電位から、その動きに反応して、ディジタル空間内で、対応したドラム・ピアノの音情報と、音符画像情報が、選択され、実際の空間へ、ドラム・ピアノ音が、発生し聞こえ、表示画面上に、楽譜が、表示される」)により、「ディジタル空間」内の表示画面上(図41の302)と、「実際の空間」(図41の303)の2つの特定A5感空間情報(図41の300)が、「繋がった1つの空間」(図41の302・303・304)となる特定A5感空間情報を持つ「実際の空間」が、ディジタル空間へ広がった「実際の空間と 壁のないディジタル空間」(図41の300)が、実現できる。(図46の186)   In the “digital space” (302 in FIG. 41 and 300 in FIG. 44) that displays 5-sensory information, 5 in the “actual space” (303 in FIG. 41 and 300 in FIG. 44) is an extremely simple example. After measuring the sensory information and determining the specific A5 sensory space information scene situation (183 in FIG. 46), the corresponding response five sensory information is displayed on the display screen in the “digital space” from the measured sensory information. Performing the selection process as the five-sensory information processing of the optimal specific A5 sensation space information (the wind direction, the light direction, the shadow direction, the scent direction, the dynamic inclination of the display screen in the actual space) Change of direction ・ “Hidden people hidden by display screen parts, display of hidden parts on the display screen” ・ “People and objects jumping into the display screen” ・ “People and objects jumping out of the display screen” ・“Sound in real space , "Echo / Drumming sound generation in digital space" / "In real space, drag the display screen left and right, up and down, touch like touch, push, scratch, and rub. The information on the display screen in the space is digitally displayed as a response that is shifted in proportion to the left, right, up and down, beaten, dented, scratched, smoke generated and information faded or disappeared. “When you hit a virtual / fictional drum / piano in real space, it responds to the movement from the surface myoelectric potential of the brain, and the corresponding drum / piano sound information in the digital space. The note image information is selected, and the drum / piano sound is generated and heard in the actual space, and the score is displayed on the display screen ”) on the display screen in the“ digital space ”(see FIG. 4 302) and two specific A5 sense space information (300 in FIG. 41) of “actual space” (303 in FIG. 41) are “connected one space” (302, 303, and 304 in FIG. 41). “Actual space” having specific A5 sense space information, which is spread into a digital space, can be realized (300 in FIG. 41). (186 in FIG. 46)

また、前記とは、逆に、「ディジタル空間」内の表示画面上(図42の309)における5感覚情報を 計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した5感覚情報から、「実際の空間」に、対応する反応5感覚情報を 表現する行為から(図46の186)、「ディジタル空間」(図41の302)が、「実際の空間」へ広がった(図41の302・303・304)「ディジタル空間と 壁のない実際の空間」(図41の300)が、実現できる。   On the contrary, after measuring 5 sensory information on the display screen (309 in FIG. 42) in the “digital space” and determining the specific A5 sensory space information scene situation (183 in FIG. 46). From the measured five sensory information to “actual space” and the action of expressing the corresponding reaction five sensory information (186 in FIG. 46), “digital space” (302 in FIG. 41) becomes “actual space”. (Digital space and actual space without walls) (300 in FIG. 41) can be realized.

サイバーネットショッピング、インターネットショッピング、無店舗内ショッピング、有店舗内ショッピング、大型ショッピングモール内ショッピング、および、商店街内ショッピングなどの代表類例的に、見受けられる「商業空間」(図44の300)では、極めて簡単な最良の形態例として、各ポイント場所ごとのセンサー計測により、来店顧客の顧客導線別計測人数、同アクセス頻度人数、同1局集中度合い人数、同各階・各店舗別混み具合人数、および、特別会員顧客所持のカードからの導線追尾などを計測確定し、特定A5感空間情報場面状況の、一般・特別顧客動向の現在位置を確認確定後(図46の183)、「混み具合解消のための、アナウンス・別の催し物広告宣伝誘導行為情報」「特別会員様認識信号を、目前の販売員へ情報伝達し、接客・挨拶・商品案内の差別化と個々の顧客別サービスの最適化行為」を、最適な特定A5感空間情報の5感覚情報処理として、選択情報処理実行する事により、スペース別機会ロスが、少なく、また、サービスレベルが、高く、差別化による個の顧客満足の高い、つまり、再来店頻度が高い特定A5感空間情報を持つ高効率・高顧客満足度の「商業空間」が、実現できる。(図46の186) In the “commercial space” (300 in FIG. 44) that can be seen as typical examples of cybernet shopping, Internet shopping, in-store shopping, in-store shopping, shopping in a large shopping mall, and shopping in a shopping street, As a very simple best form example, by measuring the sensor at each point location, the number of people measured by customer leads, the number of people accessing the same frequency, the number of people who are concentrated in the same station, the number of people crowded by each floor and each store, and After confirming the lead tracking from the card held by the special member customer and confirming the current position of the general / special customer trend in the specific A5 sense space information scene situation (183 in FIG. 46), “Resolve congestion” Announcement / information on other promotional activities for promotional activities ”“ Recognition signal for special members ” By communicating information, performing customer information / greeting / product differentiation and optimizing service for each customer's service as 5 sense information processing of optimal specific A5 sense space information Highly efficient and high customer satisfaction “commercial space” with specific A5 sense space information with little opportunity loss, high service level, high individual customer satisfaction through differentiation, that is, frequent visits Can be realized. (186 in FIG. 46)

立体歩道橋・車道・高速道路・極めて簡単な例としてのITS(高速道路交通システム)などの代表類例的に、見受けられる「道空間」(図44の300)では、極めて簡単な最良の形態例として、人・車輌の通過状態数を、常時計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した人・車輌の通過状態数を、別特定A5感空間情報の人・車輌へ伝達することを、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、人・車輌の通過状態数が、定量範囲内に留まる特定A5感空間情報を持つ混雑せず・通過時間が、予測可能な「道空間」が、実現できる。(図46の186)   As representative examples of three-dimensional pedestrian bridges, roadways, highways, and ITS (highway transportation system) as a very simple example, the “road space” (300 in FIG. 44) is an extremely simple example. After constantly measuring the number of passing states of people / vehicles and determining the specific A5 sensation space information scene situation (183 in FIG. 46), the number of passing states of people / vehicles is separately specified as A5 sensation space information. The specific A5 sense space information that the number of passing states of the person / vehicle stays within the quantification range by executing the selection process as the five sense information processing of the optimum specific A5 sense space information. It is possible to realize a “road space” that can be predicted with no congestion and transit time. (186 in FIG. 46)

極めて簡単な例であるETC(ノンストップ自動料金支払いシステム)などの高速道路ネットワーク、有料道路ローカル・エリア・ネットワーク、インターネット、通信ネットワーク、および、双方向有線、もしくは、同無線ネットワークなどの代表類例的に、見受けられる「課金制道路サイバー空間」(図44の300)では、極めて簡単な最良の形態例として、通行料徴収手続サービスなどの情報と同サービス行為を提供し、これを常時5感覚で、計測し、計測した情報の中に、通行料徴収手続サービスなどの情報と同サービス行為の顧客依頼意志情報が存在する場合、特定A5感空間情報場面状況の、依頼意志確認確定後(図46の183)、依頼契約締結手続に必要な諸行為と依頼行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、通行料徴収手続サービスなどの情報と同サービス行為の手続依頼契約と依頼行為が、実行される、迅速な有料道路社会が、常時機能する特定A5感空間情報を持つ高効率・低費用の「課金制道路サイバー空間」が、提供できる。(図46の186)   Representative examples such as highway networks such as ETC (Non-stop automatic toll payment system), toll road local area network, Internet, communication network, and two-way wired or wireless network, which are extremely simple examples In addition, in the “Billing road cyberspace” (300 in FIG. 44) that can be seen, as an extremely simple best mode example, information such as a toll collection service and the same service acts are provided, and this is always performed in five senses In the measured information, if there is information on the toll collection procedure service and customer request will information of the same service action, after confirming the request will confirmation of the specific A5 sense space information scene situation (FIG. 46). 183), 5 actions information processing of optimal specific A5 sense space information As a result of the selection process, information on toll collection procedures, etc., and procedure request contracts and requests for the services are executed. The high-efficiency, low-cost “charged road cyberspace” can be provided. (186 in FIG. 46)

旅行地・観光地・行楽地・温泉地・リゾート地・山・海・湖・キャンプ地・旅館などの代表類例的に、見受けられる「観光空間」(図44の300)では、極めて簡単な最良の形態例として、観光地の観光状態を、常時カメラ類で、計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した観光地の観光状態画像を、同観光地以外の別特定A5感空間情報(図41の301)の人・組織体へ伝達することを、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、最良の観光状態を予定できる特定A5感空間情報を持つ快適な「観光空間」が、実現できる。(図46の186)   The “sightseeing space” (300 in FIG. 44) that can be seen as representative examples of travel destinations, tourist destinations, vacation resorts, hot spring resorts, resorts, mountains, seas, lakes, camp sites, and inns is extremely simple and best. As an example of the above, after measuring the sightseeing state of the sightseeing spot with cameras constantly and determining the specific A5 sense space information scene situation (183 in FIG. 46), the sightseeing state image of the measured sightseeing spot is It is best to execute the selection process as the five sense information processing of the optimum specific A5 sense space information to transmit the other specific A5 sense space information (301 in FIG. 41) other than the sightseeing spot to the person / organization. A comfortable “sightseeing space” with specific A5 sense space information that can plan a sightseeing state can be realized. (186 in FIG. 46)

遊園地・動物園・遊技館・水族館・博物館・美術館・展示館・食堂・海水浴場・プール・健康ランドなどの代表類例的に、見受けられる「行楽空間」(図44の300)では、極めて簡単な最良の形態例として、行楽地の行楽状態を、常時カメラ類で、計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した行楽地の行楽状態画像を、同行楽地以外の別特定A5感空間情報の人・組織体へ伝達することを、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、最良の行楽状態を予定できる特定A5感空間情報を持つ快適な「行楽空間」が、実現できる。(図46の186)   The typical “amusement space” (300 in FIG. 44), which is a typical example of amusement parks, zoos, amusement halls, aquariums, museums, art galleries, exhibition halls, canteens, beaches, swimming pools, and health lands, is extremely simple. As an example of the best mode, the leisure state of the resort area is always measured with cameras, and the specific A5 sensation space information scene situation is confirmed (183 in FIG. 46). It is possible to plan the best vacation state by executing the selection process as the five-sense information processing of the optimum specific A5 sense space information to transmit the other specific A5 sense space information other than the accompaniment place to the person / organization. A comfortable "excursion space" with specific A5 sense space information can be realized. (186 in FIG. 46)

ゴルフ練習場・スキー練習場場・バッティングセンター・スポーツセンター、および、フィットネスクラブなどの代表類例的に、見受けられる「スポーツ空間」(図44の300)では、極めて簡単な最良の形態例として、個人の特定スポーツ技能を、常時カメラ類で、計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測したスポーツ技能から、不足する筋肉トレーニング・技能トレーニングを選択し、個人会員へ伝達することを、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、最適のスポーツ技能修得プログラムを組むことができる特定A5感空間情報を持つ無駄のない「スポーツ空間」が、実現できる。(図46の186)   In a typical “sports space” (300 in FIG. 44) such as a golf driving range, a ski driving range, a batting center, a sports center, and a fitness club, a personal example is shown as an extremely simple example. After measuring the specific sports skill of the camera with cameras, and confirming the specific A5 sense space information scene situation (183 in FIG. 46), select the insufficient muscle training / skill training from the measured sports skill, Communicating to an individual member, as a five-sensory information processing of the optimal specific A5 sense space information, by performing selection processing, there is no waste with specific A5 sense space information that can form an optimal sports skill acquisition program A “sports space” can be realized. (186 in FIG. 46)

病院・病室・擁護施設・リハビリセンター・介護施設・保健所・薬局などの代表類例的に、見受けられる「医療空間」(図44の300)では、極めて簡単な最良の形態例として、医療機関施設の待ち合い予約番号消化状態を、常時、計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した医療機関施設の待ち合い予約番号消化状態から、同待ち合い予約消化予定時間と後何人通知を、同待ち合い室以外の別特定A5感空間情報(図41の301)の外来患者・組織体へ伝達することを、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、時間を無駄にせず医療機関施設を利用できる特定A5感空間情報を持つ親切な「医療空間」が、実現できる。(図46の186)   In the “medical space” (300 in FIG. 44) that can be seen as representative examples of hospitals, hospital rooms, advocacy facilities, rehabilitation centers, nursing homes, health centers, pharmacies, etc. Waiting reservation number consumption state is always measured, and the specific A5 sensation space information scene situation is confirmed (183 in FIG. 46), then the waiting reservation number digestion estimated time from the waiting reservation number consumption state of the measured medical institution facility As the five-sensory information processing of the optimal specific A5 sensory space information, it is selected to transmit the notification of the number of persons afterwards to the outpatient / organization body of another specific A5 sensory space information (301 in FIG. 41) other than the waiting room. By executing the processing, a kind “medical space” having specific A5 sense space information that can use the medical institution facility without wasting time can be realized. (186 in FIG. 46)

学校・職業訓練所・幼稚園・保育園などの代表類例的に、見受けられる「教育空間」(図44の300)では、極めて簡単な最良の形態例として、子供に、持たした計測録音機から、教育施設での特徴ある悪感情・誘拐犯の音声情報・同定形句、および、強い身体衝撃度以後10分間のみを、計測録音、もしくは/および、録画し、または、同以後の位置情報・音声実況状況の特定A5感空間情報場面状況を、確定した後(図46の183)、記録計測した計測録音、もしくは/および、録画情報、または、同以後の位置情報・音声実況状況から、両親・警備会社・学校の専用携帯電話などへ自動通知・同伝達・同通報することを、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、日々のおとなしい・無口な学童へのいじめ・脅し・帰宅時の誘拐危険度を 前触れ段階で、発見する特定A5感空間情報を持つ安全な防犯「教育空間」が、確保できると思われる。(図46の186)   In the “education space” (300 in FIG. 44) that can be seen as typical examples of schools, vocational training centers, kindergartens, nursery schools, etc., as an extremely simple example of the best form, a child can be educated from a measurement recording machine that she has. Record and / or record only 10 minutes after the voice information / identification form and strong physical impact of characteristic bad feelings / kidnappers at the facility, or the location information / audio situation after that Specific situation A5 sensation space information After confirming the scene situation (183 in FIG. 46), the parent / guardian based on the measured recording / recording information and / or the recorded information, or the subsequent location information / audio situation Automatic notification / transmission / reporting to a company / school dedicated mobile phone, etc. is performed as a five-sensory information processing of the optimal specific A5 sense space information. In the kidnapping risk a harbinger stage of bullying, intimidation, returning home to the child, a safe crime prevention "education space" with a specific A5 sense of spatial information to discover, seems to be secured. (186 in FIG. 46)

農地・ビニールハウス・植物類栽培工場などの代表類例的に、見受けられる「栽培空間」(図44の300)では、極めて簡単な最良の形態例として、農作植物生育に必要な光量・温度・湿度・窒素・燐・カリウム・細菌発生状況・水、および、オゾンなどの測定量を、常時計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した測定量から、不足・過多の項目を、削減し、定量範囲内に、保持する反応行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、計画的農作植物の生育可能な特定A5感空間情報を持つ安定した「栽培空間」が、確保できる。(図46の186)   In the “cultivation space” (300 in FIG. 44) that can be seen as representative examples of farmland, greenhouses, plant cultivation plants, etc., the light quantity, temperature, and humidity required for growing agricultural plants are the most simple examples.・ Measurement quantities such as nitrogen, phosphorus, potassium, bacterial development, water, and ozone are constantly measured, and after confirming the specific A5 sensation space information scene situation (183 in FIG. 46), from the measured quantity By reducing the number of items that are insufficient or excessive and keeping the reaction action held within the quantitative range as the five sensory information processing of the optimal specific A5 sensation space information, it is possible to grow planned farming plants. A stable “cultivation space” with specific A5 sense space information can be secured. (186 in FIG. 46)

蚕・昆虫・鶏舎・豚舎・牛舎・牧場・養殖地・陸上養殖などの代表類例的に、見受けられる「養畜産空間」(図44の183)では、極めて簡単な最良の形態例として、養い育てるべき生物に必要な光量・温度・湿度・細菌発生状況・栄養素状況・水、および、オゾンなどの測定量を、常時計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した測定量から、不足・過多の項目を、削減し、定量範囲内に、保持する反応行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、計画的生物の飼育可能な特定A5感空間情報を持つ安定した「養畜産空間」が、確保できる。(図46の186)   In the “animal farming space” (183 in FIG. 44) that can be seen as typical examples of sharks, insects, poultry houses, pig houses, cow houses, farms, farms, land farms, etc. After constantly measuring the amount of light, temperature, humidity, bacteria generation status, nutrient status, water, ozone, etc. necessary for the living organism and determining the specific A5 sensation spatial information scene status (183 in FIG. 46) ) By reducing the number of items that are deficient or excessive from the measured amount of measurement, and performing the selection process for the reaction action to be held within the quantification range as the five-sense information processing of the optimal specific A5 sense space information, A stable “animal farming space” having specific A5 sense space information that allows breeding of planned organisms can be secured. (186 in FIG. 46)

天候観測衛星・天候・地震・桜前線などの代表類例的に、見受けられる「気象地象空間」(図44の300)では、極めて簡単な最良の形態例として、
衛星観測点・観測地上点、および、百葉箱点などでの各点測定量を、常時計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した各点測定量から、面測定量・地域測定量・国別測定量、および、上空各層別測定量を、導き出し、時間帯別量の変化から、未来変化量を、スーパーコンピュータなどの超高速で、演算予測する反応行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、季節別季節服生産量予測・花火大会の日程と打ち上げ量予測・海難事故の総合的判断サービスなどの天侯予想サービス可能な特定A5感空間情報を持つ信頼性高い「気象地象空間」が、維持確保できる。(図46の186)
As typical examples of weather observation satellites, weather, earthquakes, cherry blossom fronts, etc., in the “meteorological space” (300 in FIG. 44),
Each point measurement amount at satellite observation point, observation ground point, and Hyakuba box point, etc. is constantly measured, and the specific A5 sensation space information scene situation is confirmed (183 in FIG. 46), then each point measurement amount is measured. From this, the surface measurement, regional measurement, country-specific measurement, and measurement data for each sky level are derived, and the future change is calculated and predicted at a very high speed using a supercomputer, etc. By performing the selection process as the five-sensory information processing of the optimal specific A5 sensation spatial information, the reaction behavior is forecasted by season, seasonal clothing production forecast, fireworks display schedule and launch forecast, a comprehensive judgment service for marine accidents, etc. It is possible to maintain and secure a highly reliable “meteorological space” with specific A5 sense space information that can be used for the prediction of Tengu. (186 in FIG. 46)

放送局・携帯電話・有線放送などの代表類例的に、見受けられる「放送通信空間」(図44の300)では、極めて簡単な最良の形態例として、指定受信・送信アナログ電波・同ディジタル電波における雑阻害電波を、計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した雑電波とは、逆位相のディジタル雑阻害電波の発生と同時に、極めて弱い指定受信・同送信電波の大幅な増幅、もしくは、計測値の高レベル化を瞬時に、繰り返す受信・送信行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、雑阻害電波の影響が、極端に 少ない特定A5感空間情報を持つ安定した「放送通信空間」が、実現できる。(図46の186)   In a typical “broadcast communication space” (300 in FIG. 44) that can be seen as representative examples of broadcasting stations, mobile phones, cable broadcasting, etc., as a very simple best mode example, in a designated reception / transmission analog radio wave / digital radio wave After measuring the radio interference signal and confirming the specific A5 sensation space information scene situation (183 in FIG. 46), the measured radio interference signal is a very weak designated reception at the same time as the generation of the digital noise interference signal in the opposite phase.・ By selecting and executing the reception / transmission action that repeats a large amplification of the transmission radio wave or a high level of the measurement value instantly as the five sensory information processing of the optimal specific A5 sensory space information, A stable “broadcast communication space” with specific A5 sensation space information that is extremely less affected by disturbing radio waves can be realized. (186 in FIG. 46)

月・太陽・惑星などの代表類例的に、見受けられる「天体空間」(図44の300)では、極めて簡単な最良の形態例として、人類にとり、有害なコロナからの太陽風発生を、計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した有害な太陽風量から、経過期間別太陽風量の変化、これを進入防止する地球電離層の変化を、スーパーコンピュータなどの超高速で、演算予測する反応行為を、最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、計画的温暖化対策・同電離層の増量状況が、観察・警報・予測できる特定A5感空間情報を持つ安定した「天体空間」が、維持確保できる。(図46の186)   In the “celestial space” (300 in FIG. 44) that can be seen as representative examples of the moon, the sun, the planet, etc., as an extremely simple example of the best mode, the solar wind generation from the corona that is harmful to humans is measured, After confirming the specific A5 sensation space information scene situation (183 in FIG. 46), from the measured harmful solar wind volume, change of solar wind volume by elapsed period, change of the ionosphere to prevent this, such as supercomputer By performing the selection process of the reaction behavior that predicts the calculation at an ultra-high speed as the 5-sensory information processing of the optimal specific A5 sense space information, it is possible to observe, alert, and predict the planned warming countermeasures and the ionospheric increase. A stable “celestial space” with specific A5 sense space information that can be maintained can be maintained. (186 in FIG. 46)

ウィルス・ナノメートル加工などの代表類例的に、見受けられる「超微細空間」(図44の300)では、極めて簡単な最良の形態例として、ナノメートル空間を、電子顕微鏡などで、観察計測し、特定A5感空間情報場面状況を、確定した後(図46の183)、計測した観察値の時間別連続値から、ナノメートル空間の変化を捕え、これに応じた時間別予測反応加工行為を、投入し、予測加工して行く行為を 最適な特定A5感空間情報の5感覚情報処理として、選択処理実行する事により、ナノメートル空間内での加工が、可能な特定A5感空間情報を持つ「超微細空間」を、開拓できると思われる。(図46の186) In the “ultrafine space” (300 in FIG. 44) that can be seen as a typical example of virus and nanometer processing, as an extremely simple best example, the nanometer space is observed and measured with an electron microscope, After confirming the specific A5 sensation space information scene situation (183 in FIG. 46), the change in the nanometer space is captured from the measured hourly continuous value of the observed value, and the hourly predicted reaction processing action corresponding to this is taken. The process of input and predictive processing is carried out as selection processing as the five-sense information processing of optimal specific A5 sense space information, so that processing within the nanometer space has specific A5 sense space information that can be processed. It seems that the “ultrafine space” can be developed. (186 in FIG. 46)

以上が、挙げられ、「目前まで飛び出すレベル領域での画像情報関連物として提供し、決定権者である顧客視聴者に 得(=徳)ある画像情報関連物と最終認定されること」を、当初の最終期待課題としたことに、微力ながら貢献できるのではないか、と思いを馳せ、該産業上の利用効果は大きいと思われる。 The above is mentioned, "It is provided as an image information related object in the level area that pops out to the very near, and is finally recognized as an image information related object obtained (= virtue) by the customer viewer who is the decision-maker" I think that I can contribute to the initial final expected issue with a little effort, and the industrial use effect seems to be great.

また、本明細書全般において、極めて簡単で、同基礎的各発明の効果1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ、による各発明の効果が各々挙げられている。 In addition, in this specification as a whole, the effects of each invention can be listed by the effects of one or more of the same basic inventions, various combinations of the same one or more, or various combinations of the same one or more. ing.

このことは、紙面数と先願主義の時間制約の都合上、技術模倣と基礎理解に必要なもののみに限り 可能な限り丁寧に、述べたつもりでいるが、該1以上と 同1以上の数々の組み合わせ効果・同応用効果・同応用事例・同連想効果、および、同連想事例などの 全てに渡って、残念ながら、公開できていない。 This is intended to be described as carefully as possible only for those necessary for technology imitation and basic understanding, due to the number of pages and time constraints of the prior application principle. Unfortunately, it is not possible to publish all the combination effects, application effects, application examples, association effects, and association examples.

しかし、極めて簡単で基礎的な本各効果と同各事例の各1以上・同各1以上の数々の組み合わせ効果・同1以上の様々な重ね合わせ効果・同応用効果・同応用事例・同連想効果、および、同連想事例は、当然、本明細書全般における記載事項に、含まれている記載領域事項であることは、言うまでもない。 However, one or more of each of these cases and one or more of each of the above cases, one or more of each combination effect, one or more of various overlay effects, the same application effect, the same application case, or the same association Needless to say, the effect and the associative example are matters included in the description items in this specification as a whole.

四角錐真上観察時の、両形融合画像情報による両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a stereoscopic image information generation process that approaches the immediate area of both deconvergence fused image information by the double-shaped fused image information when observing just above the quadrangular pyramid. 四角錐真上観察時の、両形融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of an extremely simple example showing a process for generating stereoscopic image information of double-shaped fusion image information when observing just above a quadrangular pyramid. 四角錐真上観察時の、両組融合画像情報による両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a stereoscopic image information generation process that approaches the immediate area of both deconvergence fused image information by both sets of fused image information when observing just above a quadrangular pyramid. 四角錐真上観察時の、両組融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a stereoscopic image information generation process of both sets of fused image information at the time of observation directly above a quadrangular pyramid. 四角錐真上観察時の、両形組融合画像情報による両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a stereoscopic image information generation process approaching the immediate area of both deconvergence fused image information by the both-shape set fused image information at the time of observation right above the quadrangular pyramid. 四角錐真上観察時の、両形組融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a stereoscopic image information generation process of both-shaped set fusion image information at the time of observation directly above a quadrangular pyramid. 横細分された四角錐真上観察時の、両形融合画像情報と両形融合画像情報による上下両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。An extremely simple example showing the process of generating stereoscopic image information that approaches the immediate area of the top and bottom convergence convergence image information based on both-shaped fusion image information and both-shape fusion image information at the time of observation directly above the horizontally subdivided square pyramid It is a top view. 横細分された四角錐真上観察時の、両形融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of an extremely simple example showing a stereoscopic image information generation process of bilateral fusion image information at the time of observation directly above a horizontally divided quadrangular pyramid. 横細分された四角錐真上観察時の、両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。An extremely simple example showing the process of generating stereoscopic image information that approaches the immediate area of both top and bottom convergence convergence image information based on both sets of fusion image information and both sets of fusion image information during observation directly above the horizontally subdivided square pyramid It is a top view. 横細分された四角錐真上観察時の、両組融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a stereoscopic image information generation process of both sets of fused image information at the time of observation directly above a horizontally divided quadrangular pyramid. 横細分された四角錐真上観察時の、両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。3D image information generation process approaching the immediate area of the top and bottom convergence convergence image information based on both-shaped set fusion image information and both-shape set fusion image information when observing directly above the horizontally subdivided square pyramid 1 It is a top view of an example. 横細分された四角錐真上観察時の、両形組融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a process of generating stereoscopic image information of both-shaped set fusion image information at the time of observing just above a horizontally divided quadrangular pyramid. 図7・9・11において、「山型」「谷型」「傾斜型」で、構成され得る両離輻輳融合画像情報の各「型」の極めて簡単な1例の構成図、および、同1例の平面図である。7, 9, and 11, a configuration diagram of an extremely simple example of each “type” of both deconvergence fusion image information that can be configured as “mountain type”, “valley type”, and “tilt type”, and FIG. It is a top view of an example. 1ドット、もしくは、1セル部の自発光体類の画像情報表示部と「箱O」設置の極めて簡単な1例の分解斜視図である。It is an exploded perspective view of an extremely simple example of an image information display unit and a “box O” installation of a self-luminous body of one dot or one cell unit. 自発光体類の画像情報表示部と「箱O」の外光経路跡を示した極めて簡単な1例の断面図である。It is sectional drawing of an extremely simple example which showed the image information display part of self-luminous bodies, and the external light path trace of "box O". 1ドット、もしくは、1セル部の既存のプラズマ類の画像情報表示部の極めて簡単な1例の断面図、同プラズマ類の画像情報表示部と「箱O」通過型設置例の極めて簡単な1例の断面図、および、同部と同透過型設置例の極めて簡単な1例の断面図である。1-dot or 1-cell cross-sectional view of an image information display unit of existing plasmas of one cell part, an extremely simple 1 of an image information display part of the same plasmas and a “box O” passing type installation example It is sectional drawing of an example, and sectional drawing of one very simple example of the same part and the same transmission type installation example. 1ドット、もしくは、1セル部の自発光体類の画像情報表示部と「箱O」設置に、カラーフィルター類を挿入した場合の極めて簡単な1例の分解斜視図である。FIG. 5 is an exploded perspective view of an extremely simple example in which color filters are inserted into an image information display unit and a “box O” installation of a self-luminous body of one dot or one cell unit. 「箱O」の一部が、傾斜した場合の極めて簡単な1例の斜視図である。FIG. 5 is a perspective view of an extremely simple example in which a part of “box O” is inclined. 1ドット、もしくは、1セル部の液晶類画像情報表示部に、「囲壁P」挿入箇所を明記した極めて簡単な1例の分解斜視図である。FIG. 5 is an exploded perspective view of a very simple example in which a “enclosure P” is inserted in a liquid crystal image information display unit of one dot or one cell part. 「囲壁P」の一部が、傾斜しない場合の極めて簡単な1例の斜視図と、傾斜した場合の同1例の斜視図である。They are a perspective view of an extremely simple example when a part of “enclosure P” does not tilt, and a perspective view of the same example when tilted. 液晶類画像情報表示部と傾斜てない「囲壁P」の外光経路跡を示した極めて簡単な1例の断面図と、同傾斜している「囲壁P」の外光経路跡を示した同1例の断面図である。A cross-sectional view of a very simple example showing the external light path trace of the “enclosure P” that is not inclined with the liquid crystal image information display unit, and the same illustration showing the external light path trace of the “enclosure P” that is inclined It is sectional drawing of an example. 平面画像情報内部の各場面状況情報、A5感空間情報内部の各場面状況情報の情報処理機能の極めて簡単な1例の構成を示したブロック図である。It is the block diagram which showed the structure of one very simple example of the information processing function of each scene condition information inside planar image information and each scene condition information inside A5 sense space information. 両離輻輳融合用平面画像情報を、時分割画像情報処理する構成を示した極めて簡単な1例のブロック図である。It is a block diagram of a very simple example showing a configuration for performing time-division image information processing on both separated and converged plane image information. 各差異を持つ各種類融合画像情報の各該差異範囲内・同範囲外の高低を増減する、又は、ゼロにする場合の構成を示した極めて簡単な1例のブロック図である。It is a block diagram of a very simple example showing a configuration in the case where the level of each kind of fused image information having each difference is increased / decreased within the difference range and outside the same range, or is set to zero. 平面画像情報内部から、同部内の各場面状況情報を、検出する場合の極めて簡単な1構成を示した極めて簡単な1例のブロック図である。It is a block diagram of a very simple example showing one very simple configuration in the case of detecting each scene situation information in the same part from within the planar image information. 各種類融合画像情報に、「同各種類の融合が起こらない処理情報」を、随所に、差し込んだ場合の構成を示した極めて簡単な1例のブロック図である。It is a block diagram of a very simple example showing a configuration when “processing information that does not cause fusion of the same type” is inserted everywhere in each type of fused image information. 平面画像情報から、「両飽和度融合画像情報」「両明度融合画像情報」「両像収差度融合画像情報」「両像輪郭線度融合画像情報」により、立体画像情報を生成する場合の構成を示した極めて簡単な1例のブロック図である。Configuration for generating stereoscopic image information from two-dimensional image information using “Both saturation fusion image information”, “Brightness fusion image information”, “Both image aberration degree fusion image information”, and “Both image contour line fusion image information” It is a block diagram of a very simple example showing 縦細分された四角錐真上観察時の、両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。An extremely simple example showing the process of generating stereoscopic image information that approaches the immediate area of the left and right deconvergence fusion image information based on both-shaped fusion image information and both-shape fusion image information when observing directly above the vertically divided quadrangular pyramid It is a top view. 縦細分された四角錐真上観察時の、両形融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a stereoscopic image information generation process of bilateral fusion image information at the time of observation directly above a vertically divided quadrangular pyramid. 縦細分された四角錐真上観察時の、両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。An extremely simple example showing the process of generating stereoscopic image information that approaches the immediate area of the left and right defocused fusion image information based on both sets of fusion image information and both sets of fusion image information when observing directly above the vertically divided quadrangular pyramid. It is a top view. 縦細分された四角錐真上観察時の、両組融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a stereoscopic image information generation process of both sets of fused image information at the time of observation directly above a vertically divided quadrangular pyramid. 縦細分された四角錐真上観察時の、両形組融合画像情報と両形組融合画像情報による左右両離輻輳融合画像情報の目前領域まで迫る立体画像情報生成過程を示した極めて簡単な1例の平面図である。This is a very simple process that shows the process of generating stereoscopic image information that approaches the immediate area of the left and right defocused fusion image information by using both-shaped set fusion image information and both-type set fusion image information when observing directly above the vertically divided quadrangular pyramid. It is a top view of an example. 縦細分された四角錐真上観察時の、両形組融合画像情報の立体画像情報生成過程を示した極めて簡単な1例の平面図である。It is a top view of a very simple example showing a process of generating stereoscopic image information of both-shaped set fused image information when observing directly above a vertically divided quadrangular pyramid. 縦・横細分された四角錐真上観察時の補間作業が、必要ない「両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報」による空間深度画像情報である立体画像情報生成過程を示した極めて簡単な1例の平面図である。Three-dimensional image that is spatial depth image information based on "both-set fusion image information and upper-lower-left-and-right convergence convergence image information by both-set fusion image information", which does not require interpolation work when observing directly above the vertically and horizontally divided quadrangular pyramids It is a top view of a very simple example showing an information generation process. 縦・横細分された四角錐真上観察時の補間作業が、必要である「両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報」による空間深度画像情報である立体画像情報生成過程を示した極めて簡単な1例の平面図である。Interpolation work when observing directly above the vertically and horizontally subdivided quadrangular pyramids is necessary as a three-dimensional image that is spatial depth image information based on "both sets of fusion image information and both upper and lower left and right convergence convergence image information based on both sets of fusion image information" It is a top view of a very simple example showing an image information generation process. 縦・横細分された四角錐真上観察時の補間作業が、必要ない「両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報」による空間突出度画像情報である立体画像情報生成過程を示した極めて簡単な1例の平面図である。Interpolation work when observing directly above the vertically and horizontally subdivided quadrangular pyramid is a three-dimensional image that is image information of spatial protrusion by "both-set fusion image information and bi-convergence fusion image information by both-set fusion image information" It is a top view of a very simple example showing an image information generation process. 縦・横細分された四角錐真上観察時の重なり部分が、発生する「両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報」による空間突出度画像情報である立体画像情報生成過程を示した極めて簡単な1例の平面図である。The overlapping part of the vertically and horizontally subdivided quadrangular pyramid is the three-dimensional solid image that is the spatial protrusion degree image information by the generated "Both-set fusion image information and the up-down and left-and-right convergence convergence image information by both-set fusion image information" It is a top view of a very simple example showing an image information generation process. 3角柱型1画素部の各R・G・Bが、各1巴型内総輝度光量範囲内自由移動の多部輝度発光部で構成される3つ巴型、万華鏡式3角柱の「箱O」・同「囲壁P」で上下を構成された例の極めて簡単な1例の真上観察時の図と、同1例の同部斜視図である。Each R, G, and B of a triangular prism type 1 pixel unit is a box-shaped, kaleidoscopic triangular column “box O FIG. 2 is a view of an extremely simple example of an example in which the upper and lower sides are constituted by the “enclosure P” and a perspective view of the same part. 各種類融合画像情報から融合画像情報が立体画像情報となる場合の構成を示した極めて簡単な1例のブロック図である。It is a block diagram of a very simple example showing a configuration in a case where fused image information becomes stereoscopic image information from each type of fused image information. 時間軸上の検出された平面画像情報内部の各場面状況情報から、同場面の5感情報の圧倒的臨場感の再現を実現する場合の構成を示した極めて簡単な1例のブロック図である。It is a block diagram of an extremely simple example showing a configuration for realizing overwhelming realism reproduction of five sense information of the same scene from each scene situation information inside the detected plane image information on the time axis. . A5感空間情報内外の概念例を表示した極めて簡単な1例の構成配置図である。It is a configuration layout diagram of a very simple example displaying a conceptual example inside and outside the A5 sense space information. A5感空間情報内のB虚空領域内外の概念例を表示した極めて簡単な1例の構成配置図である。It is a configurational layout diagram of a very simple example displaying a conceptual example inside and outside the B imaginary space in the A5 sense space information. A5感空間情報内のC実空領域内外の概念例を表示した極めて簡単な1例の構成配置図である。It is a very simple example configuration layout diagram showing a conceptual example inside and outside the C real sky region in the A5 sense space information. 時間軸上のA5感空間情報内部から、同部内の各場面状況情報を、検出する場合の構成を示した極めて簡単な1例のブロック図である。It is a block diagram of a very simple example showing a configuration in the case of detecting each scene situation information in the same part from the inside of A5 sense space information on the time axis. A5感空間情報内のA動画群内外の概念例を表示した極めて簡単な1例の構成配置図である。It is a very simple example configuration layout diagram showing a conceptual example inside and outside the A movie group in the A5 sense space information. 時間軸上の検出されたA5感空間情報内部の各場面状況情報から、同場面の5感情報の圧倒的臨場感の再現を実現する場合の構成を示した極めて簡単な1例のブロック図である。It is a block diagram of an extremely simple example showing a configuration for realizing overwhelming realism reproduction of 5 sense information of the same scene from each scene situation information detected in the A5 sense space information on the time axis. is there.

符号の説明Explanation of symbols

A・・・・・「大A」・「大形像系画像情報」 a・・・・・「大A」、「小B」相重なる未融合画像情報 AT・・・・「大A」の中心線 B・・・・・「小B」・「小形像系画像情報」 b・・・・・「大A」、「小B」の両形融合画像情報・最大「空間深度画像情報」の立体画像情報 bb・・・・・「大A」、「小B」の両形融合画像情報による両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報 BT・・・・「小B」の中心線 C・・・・・「背景C」・「組形像系画像情報」 c・・・・・「背景C」、「背景D」相重なる未融合画像情報 CT・・・・「背景C」の中心線 D・・・・・「背景D」・「組形像系画像情報」 d・・・・・「背景C」、「背景D」の両組融合画像情報・最大「空間突出度画像情報」の立体画像情報 DT・・・・「背景D」の中心線 E・・・・・「組E」・「組形像系画像情報」 e・・・・・「組E」、「組F」相重なる未融合画像情報 ET・・・・「組E」の中心線 F・・・・・「組F」・「組形像系画像情報」 f・・・・・「組E」、「組F」の両組融合画像情報・最大「空間突出度画像情報」の立体画像情報 ff・・・・「組E」、「組F」の両組融合画像情報による両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報 FT・・・・「組F」の中心線 G・・・・・「混G」、前記図1、2、3、4の各組み合わせを除く「大A」「小B」「組E」「組F」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体の1つ
g・・・・・「混G」、「混H」相重なる未融合画像情報
GT・・・・「混G」の中心線
H・・・・・「混H」、前記図1、2、3、4の各組み合わせを除く「大A」「小B」「組E」「組F」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体の1つ
h・・・・・「混G」、「混H」の両形組融合画像情報・最大「空間歪性度画像情報」の立体画像情報
hh・・・・「混G」、「混H」の両形組融合画像情報による両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
HT・・・・「混H」の中心線
I・・・・・「細I」・「大形像系画像情報」
IT・・・・「細I」の中心線
Ia・・・・「細I」の7細分のうちの1細分
Ic・・・・「細I」の7細分のうちの1細分
Ie・・・・「細I」の7細分のうちの1細分
Ig・・・・「細I」の7細分のうちの1細分
Io・・・・「細I」の7細分のうちの1細分
Iq・・・・「細I」の7細分のうちの1細分
Is・・・・「細I」の7細分のうちの1細分
i・・・・・「細I」、「細J」相重なる未融合画像情報
ia・・・Ia、Jb相重なる未融合画像情報
ic・・・Ic、Jd相重なる未融合画像情報
ie・・・Ie、Jf相重なる未融合画像情報
ig・・・Ig、Jh相重なる未融合画像情報
io・・・Io、Jp相重なる未融合画像情報
iq・・・Iq、Jr相重なる未融合画像情報
is・・・Is、Jt相重なる未融合画像情報
J・・・・・「細J」・「小形像系画像情報」
JT・・・・「細J」の中心線
Jb・・・・「細J」の7細分のうちの1細分
Jd・・・・「細J」の7細分のうちの1細分
Jf・・・・「細J」の7細分のうちの1細分
Jh・・・・「細J」の7細分のうちの1細分
Jp・・・・「細J」の7細分のうちの1細分
Jr・・・・「細J」の7細分のうちの1細分
Jt・・・・「細J」の7細分のうちの1細分
j・・・・・「細I」、「細J」の両形融合画像情報・最大「空間深度画像情報」の立体画像情報
jb・・・Ia、Jbの両形融合画像情報による「空間深度画像情報」の立体画像情報
jd・・・Ic、Jdの両形融合画像情報による「空間深度画像情報」の立体画像情報
jf・・・Ie、Jfの両形融合画像情報による「空間深度画像情報」の立体画像情報
jh・・・Ig、Jhの両形融合画像情報による「空間深度画像情報」の立体画像情報
jp・・・Io、Jpの両形融合画像情報による「空間深度画像情報」の立体画像情報
jr・・・Iq、Jrの両形融合画像情報による「空間深度画像情報」の立体画像情報
jt・・・Is、Jtの両形融合画像情報による「空間深度画像情報」の立体画像情報
jj・・・・「細I」、「細J」の両形融合画像情報と両形融合画像情報による上下両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
jjb・・・Ia、Jbの両形融合画像情報と両形融合画像情報による上下両離輻輳融「空間深度画像情報」の立体画像情報
jjd・・・Ic、Jdの両形融合画像情報と両形融合画像情報による上下両離輻輳融「空間深度画像情報」の立体画像情報
jjf・・・Ie、Jfの両形融合画像情報と両形融合画像情報による上下両離輻輳融「空間深度画像情報」の立体画像情報
jjh・・・Ig、Jhの両形融合画像情報と両形融合画像情報による上下両離輻輳融「空間深度画像情報」の立体画像情報
jjp・・・Io、Jpの両形融合画像情報と両形融合画像情報による上下両離輻輳融「空間深度画像情報」の立体画像情報
jjr・・・Iq、Jrの両形融合画像情報と両形融合画像情報による上下両離輻輳融「空間深度画像情報」の立体画像情報
jjt・・・Is、Jtの両形融合画像情報と両形融合画像情報による上下両離輻輳融「空間深度画像情報」の立体画像情報
K・・・・・「細K」・「組形像系画像情報」
KT・・・・「細K」の中心線
Ka・・・・「細K」の7細分のうちの1細分
Kc・・・・「細K」の7細分のうちの1細分
Ke・・・・「細K」の7細分のうちの1細分
Kg・・・・「細K」の7細分のうちの1細分
Ko・・・・「細K」の7細分のうちの1細分
Kq・・・・「細K」の7細分のうちの1細分
Ks・・・・「細K」の7細分のうちの1細分
k・・・・・「細K」、「細L」相重なる未融合画像情報
ka・・・Ka、Lb相重なる未融合画像情報
kc・・・Kc、Ld相重なる未融合画像情報
ke・・・Ke、Lf相重なる未融合画像情報
kg・・・Kg、Lh相重なる未融合画像情報
ko・・・Ko、Lp相重なる未融合画像情報
kq・・・Kq、Lr相重なる未融合画像情報
ks・・・Ks、Lt相重なる未融合画像情報
L・・・・・「細L」・「組形像系画像情報」
LT・・・・「細L」の中心線
Lb・・・・「細L」7細分のうちの1細分
Ld・・・・「細L」7細分のうちの1細分
Lf・・・・「細L」7細分のうちの1細分
Lh・・・・「細L」7細分のうちの1細分
Lp・・・・「細L」7細分のうちの1細分
Lr・・・・「細L」7細分のうちの1細分
Lt・・・・「細L」7細分のうちの1細分
l・・・・・「細K」、「細L」の両組融合画像情報・最大「空間突出度画像情報」の立体画像情報
lb・・・Ka、Lbの両組融合画像情報による「空間突出度画像情報」の立体画像情報
ld・・・Kc、Ldの両組融合画像情報による「空間突出度画像情報」の立体画像情報
lf・・・Ke、Lfの両組融合画像情報による「空間突出度画像情報」の立体画像情報
lh・・・Kg、Lhの両組融合画像情報による「空間突出度画像情報」の立体画像情報
lp・・・Ko、Lpの両組融合画像情報による「空間突出度画像情報」の立体画像情報
lr・・・Kq、Lrの両組融合画像情報による「空間突出度画像情報」の立体画像情報
lt・・・Ks、Ltの両組融合画像情報による「空間突出度画像情報」の立体画像情報
ll・・・・「細K」、「細L」の両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
llb・・・Ka、Lbの両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
lld・・・Kc、Ldの両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
llf・・・Ke、Lfの両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
llh・・・Kg、Lhの両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
llp・・・Ko、Lpの両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
llr・・・Kq、Lrの両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
llt・・・Ks、Ltの両組融合画像情報と両組融合画像情報による上下両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
M・・・・「混M」・図8、10の各組み合わせを除く「細I」、「細J」、「細K」、「細L」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体の1つ
MT・・・・「混M」の中心線
Ma・・・・「混M」の7細分のうちの1細分
Mc・・・・「混M」の7細分のうちの1細分
Me・・・・「混M」の7細分のうちの1細分
Mg・・・・「混M」の7細分のうちの1細分
Mo・・・・「混M」の7細分のうちの1細分
Mq・・・・「混M」の7細分のうちの1細分
Ms・・・・「混M」の7細分のうちの1細分
m・・・・・「混M」、「混N」相重なる未融合画像情報
ma・・・Ma、Nb相重なる未融合画像情報
mc・・・Mc、Nd相重なる未融合画像情報
me・・・Me、Nf相重なる未融合画像情報
mg・・・Mg、Nh相重なる未融合画像情報
mo・・・Mo、Np相重なる未融合画像情報
mq・・・Mq、Nr相重なる未融合画像情報
ms・・・Ms、Nt相重なる未融合画像情報
N・・・・「混N」・図8、10の各組み合わせを除く「細I」、「細J」、「細K」、「細L」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体の1つ
NT・・・・「混N」の中心線
Nb・・・・「混N」の7細分のうちの1細分
Nd・・・・「混N」の7細分のうちの1細分
Nf・・・・「混N」の7細分のうちの1細分
Nh・・・・「混N」の7細分のうちの1細分
Np・・・・「混N」の7細分のうちの1細分
Nr・・・・「混N」の7細分のうちの1細分
Nt・・・・「混N」の7細分のうちの1細分
n・・・・・「混M」、「混N」の両形組融合画像情報・最大「空間歪性度画像情報」の立体画像情報
nb・・・Ma、Nbの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
nd・・・Mc、Ndの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
nf・・・Me、Nfの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
nh・・・Mg、Nhの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
np・・・Mo、Npの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
nr・・・Mq、Nrの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
nt・・・Ms、Ntの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
nn・・・・「混M」、「混N」の両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
nnb・・・Ma、Nbの両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
nnd・・・Mc、Ndの両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
nnf・・・Me、Nfの両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
nnh・・・Mg、Nhの両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
nnp・・・Mo、Npの両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
nnr・・・Mq、Nrの両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
nnt・・・Ms、Ntの両形組融合画像情報と両形組融合画像情報による上下両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
Q・・・・・7細分に均等、横割された正方形型「画像情報の像形状画像情報種」の四角錘平面図
Qa・・・・四角錘「Q」の7細分のうち1細分
Qb・・・・四角錘「Q」の7細分のうち1細分
Qc・・・・四角錘「Q」の7細分のうち1細分
Qd・・・・四角錘「Q」の7細分のうち1細分
Qe・・・・四角錘「Q」の7細分のうち1細分
Qf・・・・四角錘「Q」の7細分のうち1細分
Qg・・・・四角錘「Q」の7細分のうち1細分
R・・・・・「細R」・「大形像系画像情報」
RT・・・・「細R」の中心線
Ra・・・・「細R」の7細分のうちの1細分
Rc・・・・「細R」の7細分のうちの1細分
Re・・・・「細R」の7細分のうちの1細分
Rg・・・・「細R」の7細分のうちの1細分
Ro・・・・「細R」の7細分のうちの1細分
Rq・・・・「細R」の7細分のうちの1細分
Rs・・・・「細R」の7細分のうちの1細分
r・・・・・「細R」、「細S」相重なる未融合画像情報
ra・・・Ra、Sb相重なる未融合画像情報
rc・・・Rc、Sd相重なる未融合画像情報
re・・・Re、Sf相重なる未融合画像情報
rg・・・Rg、Sh相重なる未融合画像情報
ro・・・Ro、Sp相重なる未融合画像情報
rq・・・Rq、Sr相重なる未融合画像情報
rs・・・Rs、St相重なる未融合画像情報
S・・・・・「細S」・「小形像系画像情報」
ST・・・・「細S」の中心線
Sb・・・・「細S」の7細分のうちの1細分
Sd・・・・「細S」の7細分のうちの1細分
Sf・・・・「細S」の7細分のうちの1細分
Sh・・・・「細S」の7細分のうちの1細分
Sp・・・・「細S」の7細分のうちの1細分
Sr・・・・「細S」の7細分のうちの1細分
St・・・・「細S」の7細分のうちの1細分
s・・・・・「細R」、「細S」の両形融合画像情報・最大「空間深度画像情報」の立体画像情報
sb・・・Ra、Sbの両形融合画像情報による「空間深度画像情報」の立体画像情報
sd・・・Rc、Sdの両形融合画像情報による「空間深度画像情報」の立体画像情報
sf・・・Re、Sfの両形融合画像情報による「空間深度画像情報」の立体画像情報
sh・・・Rg、Shの両形融合画像情報による「空間深度画像情報」の立体画像情報
sp・・・Ro、Spの両形融合画像情報による「空間深度画像情報」の立体画像情報
sr・・・Rq、Srの両形融合画像情報による「空間深度画像情報」の立体画像情報
st・・・Rs、Stの両形融合画像情報による「空間深度画像情報」の立体画像情報
ss・・・・「細R」、「細S」の両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
ssb・・・Ra、Sbの両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
ssd・・・Rc、Sdの両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
ssf・・・Re、Sfの両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
ssh・・・Rg、Shの両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
ssp・・・Ro、Spの両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
ssr・・・Rq、Srの両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
sst・・・Rs、Stの両形融合画像情報と両形融合画像情報による左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
T・・・・・「細T」・「組形像系画像情報」
TT・・・・「細T」の中心線
Ta・・・・「細T」の7細分のうちの1細分
Tc・・・・「細T」の7細分のうちの1細分
Te・・・・「細T」の7細分のうちの1細分
Tg・・・・「細T」の7細分のうちの1細分
To・・・・「細T」の7細分のうちの1細分
Tq・・・・「細T」の7細分のうちの1細分
Ts・・・・「細T」の7細分のうちの1細分
t・・・・・「細T」、「細U」相重なる未融合画像情報
ta・・・Ta、Ub相重なる未融合画像情報
tc・・・Tc、Ud相重なる未融合画像情報
te・・・Te、Uf相重なる未融合画像情報
tg・・・Tg、Uh相重なる未融合画像情報
to・・・To、Up相重なる未融合画像情報
tq・・・Tq、Ur相重なる未融合画像情報
ts・・・Ts、Ut相重なる未融合画像情報
U・・・・・「細U」・「組形像系画像情報」
UT・・・・「細U」の中心線
Ub・・・・「細U」の7細分のうちの1細分
Ud・・・・「細U」の7細分のうちの1細分
Uf・・・・「細U」の7細分のうちの1細分
Uh・・・・「細U」の7細分のうちの1細分
Up・・・・「細U」の7細分のうちの1細分
Ur・・・・「細U」の7細分のうちの1細分
Ut・・・・「細U」の7細分のうちの1細分
u・・・・・「細T」、「細U」の両組融合画像情報・最大「空間突出度画像情報」の立体画像情報
ub・・・Ta、Ubの両組融合画像情報による「空間突出度画像情報」の立体画像情報
ud・・・Tc、Udの両組融合画像情報による「空間突出度画像情報」の立体画像情報
uf・・・Te、Ufの両組融合画像情報による「空間突出度画像情報」の立体画像情報
uh・・・Tg、Uhの両組融合画像情報による「空間突出度画像情報」の立体画像情報
up・・・To、Upの両組融合画像情報による「空間突出度画像情報」の立体画像情報
ur・・・Tq、Urの両組融合画像情報による「空間突出度画像情報」の立体画像情報
ut・・・Ts、Utの両組融合画像情報による「空間突出度画像情報」の立体画像情報
uu・・・・「細T」、「細U」の両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
uub・・・Ta、Ubの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
uud・・・Tc、Udの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
uuf・・・Te、Ufの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
uuh・・・Tg、Uhの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
uup・・・To、Upの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
uur・・・Tq、Urの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
uut・・・Ts、Utの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
V・・・・「混V」・図8、10の各組み合わせを除く「細R」、「細S」、「細T」、「細U」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体の1つ
VT・・・「混V」の中心線
Va・・・「混V」の7細分のうちの1細分
Vc・・・「混V」の7細分のうちの1細分
Ve・・・「混V」の7細分のうちの1細分
Vg・・・「混V」の7細分のうちの1細分
Vo・・・「混V」の7細分のうちの1細分
Vq・・・「混V」の7細分のうちの1細分
Vs・・・「混V」の7細分のうちの1細分
v・・・・「混V」、「混W」相重なる未融合画像情報
va・・・Va、Wb相重なる未融合画像情報
vc・・・Vc、Wd相重なる未融合画像情報
ve・・・Ve、Wf相重なる未融合画像情報
vg・・・Vg、Wh相重なる未融合画像情報
vo・・・Vo、Wp相重なる未融合画像情報
vq・・・Vq、Wr相重なる未融合画像情報
vs・・・Vs、Wt相重なる未融合画像情報
W・・・・「混W」・図8、10の各組み合わせを除く「細R」、「細S」、「細T」、「細U」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分けた混成体の1つ
WT・・・・「混W」の中心線
Wb・・・・「混W」の7細分のうちの1細分
Wd・・・・「混W」の7細分のうちの1細分
Wf・・・・「混W」の7細分のうちの1細分
Wh・・・・「混W」の7細分のうちの1細分
Wp・・・・「混W」の7細分のうちの1細分
Wr・・・・「混W」の7細分のうちの1細分
Wt・・・・「混W」の7細分のうちの1細分
w・・・・・「混V」、「混W」の両形組融合画像情報・最大「空間歪性度画像情報」の立体画像情報
wb・・・Va、Wbの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
wd・・・Vc、Wdの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
wf・・・Ve、Wfの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
wh・・・Vg、Whの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
wp・・・Vo、Wpの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
wr・・・Vq、Wrの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
wt・・・Vs、Wtの両形組融合画像情報による「空間歪性度画像情報」の立体画像情報
ww・・・・「混V」、「混W」の両形組融合画像情報と両形組融合画像情報による左右両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
wwb・・・Va、Wbの両形組融合画像情報と両形組融合画像情報による左右両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
wwd・・・Vc、Wdの両形組融合画像情報と両形組融合画像情報による左右両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
wwf・・・Ve、Wfの両形組融合画像情報と両形組融合画像情報による左右両離輻輳融合画像情報・「空間歪性度画像情報」の立体画像情報
wwh・・・Vg、Whの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
wwp・・・Vo、Wpの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
wwr・・・Vq、Wrの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
wwt・・・Vs、Wtの両組融合画像情報と両組融合画像情報による左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
X・・・・・7細分に均等縦割りされた正方形型「画像情報の像形状画像情報種」の四角錘平面図
XT・・・・四角錘「X」の中心線
Xa・・・・四角錘「X」の7細分のうち1細分
Xb・・・・四角錘「X」の7細分のうち1細分
Xc・・・・四角錘「X」の7細分のうち1細分
Xd・・・・四角錘「X」の7細分のうち1細分
Xe・・・・四角錘「X」の7細分のうち1細分
Xf・・・・四角錘「X」の7細分のうち1細分
Xg・・・・四角錘「X」の7細分のうち1細分
Y1・・・・「細Y1」・「組形像系画像情報」
Y1T・・・「細Y1」の中心線
Y1a・・・「細Y1」の7細分のうちの1細分
Y1c・・・「細Y1」の7細分のうちの1細分
Y1e・・・「細Y1」の7細分のうちの1細分
Y1g・・・「細Y1」の7細分のうちの1細分
Y1o・・・「細Y1」の7細分のうちの1細分
Y1q・・・「細Y1」の7細分のうちの1細分
Y1s・・・「細Y1」の7細分のうちの1細分
y1・・・・「細Y1」、「細Y2」相重なる未融合画像情報
y1a・・・Y1a、Y2b相重なる未融合画像情報
y1c・・・Y1c、Y2d相重なる未融合画像情報
y1e・・・Y1e、Y2f相重なる未融合画像情報
y1g・・・Y1g、Y2h相重なる未融合画像情報
y1o・・・Y1o、Y2p相重なる未融合画像情報
y1q・・・Y1q、Y2r相重なる未融合画像情報
y1s・・・Y1s、Y2t相重なる未融合画像情報
Y2・・・・「細Y2」・「組形像系画像情報」
Y2T・・・「細Y2」の中心線
Y2b・・・「細Y2」の7細分のうちの1細分
Y2d・・・「細Y2」の7細分のうちの1細分
Y2f・・・「細Y2」の7細分のうちの1細分
Y2h・・・「細Y2」の7細分のうちの1細分
Y2p・・・「細Y2」の7細分のうちの1細分
Y2r・・・「細Y2」の7細分のうちの1細分
Y2t・・・「細Y2」の7細分のうちの1細分
yy2・・・「細Y1」、「細Y2」の両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
yy2b・・・Y1a、Y2bの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
yy2d・・・Y1c、Y2dの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
yy2f・・・Y1e、Y2fの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
yy2h・・・Y1g、Y2hの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
yy2p・・・Y1o、Y2pの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
yy2r・・・Y1q、Y2rの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
yy2t・・・Y1s、Y2tの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
Y3・・・・「細Y3」・「組形像系画像情報」
Y3T・・・「細Y3」の中心線
Y3a・・・「細Y3」の7細分のうちの1細分
Y3c・・・「細Y3」の7細分のうちの1細分
Y3e・・・「細Y3」の7細分のうちの1細分
Y3g・・・「細Y3」の7細分のうちの1細分
Y3o・・・「細Y3」の7細分のうちの1細分
Y3q・・・「細Y3」の7細分のうちの1細分
Y3s・・・「細Y3」の7細分のうちの1細分
y3・・・・「細Y3」、「細Y4」相重なる未融合画像情報
y3a・・・Y3a、Y4b相重なる未融合画像情報
y3c・・・Y3c、Y4d相重なる未融合画像情報
y3e・・・Y3e、Y4f相重なる未融合画像情報
y3g・・・Y3g、Y4h相重なる未融合画像情報
y3o・・・Y3o、Y4p相重なる未融合画像情報
y3q・・・Y3q、Y4r相重なる未融合画像情報
y3s・・・Y3s、Y4t相重なる未融合画像情報
Y4・・・・「細Y4」・「組形像系画像情報」
Y4T・・・「細Y4」の中心線
Y4b・・・「細Y4」の7細分のうちの1細分
Y4d・・・「細Y4」の7細分のうちの1細分
Y4f・・・「細Y4」の7細分のうちの1細分
Y4h・・・「細Y4」の7細分のうちの1細分
Y4p・・・「細Y4」の7細分のうちの1細分
Y4r・・・「細Y4」の7細分のうちの1細分
Y4t・・・「細Y4」の7細分のうちの1細分
y4・・・「細Y3」、「細Y4」の両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
y4b・・・Y3a、Y4bの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
y4d・・・Y3c、Y4dの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
y4f・・・Y3e、Y4fの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
y4h・・・Y3g、Y4hの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
y4p・・・Y3o、Y4pの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
y4r・・・Y3q、Y4rの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
y4t・・・Y3s、Y4tの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間深度画像情報」の立体画像情報
Y5・・・・「細Y5」・「組形像系画像情報」
Y5T・・・「細Y5」の中心線
Y5a・・・「細Y5」の7細分のうちの1細分
Y5c・・・「細Y5」の7細分のうちの1細分
Y5e・・・「細Y5」の7細分のうちの1細分
Y5g・・・「細Y5」の7細分のうちの1細分
Y5o・・・「細Y5」の7細分のうちの1細分
Y5q・・・「細Y5」の7細分のうちの1細分
Y5s・・・「細Y5」の7細分のうちの1細分
y5・・・・「細Y5」、「細Y6」相重なる未融合画像情報
y5a・・・Y5a、Y6b相重なる未融合画像情報
y5c・・・Y5c、Y6d相重なる未融合画像情報
y5e・・・Y5e、Y6f相重なる未融合画像情報
y5g・・・Y5g、Y6h相重なる未融合画像情報
y5o・・・Y5o、Y6p相重なる未融合画像情報
y5q・・・Y5q、Y6r相重なる未融合画像情報
y5s・・・Y5s、Y6t相重なる未融合画像情報
Y6・・・・「細Y6」・「組形像系画像情報」
Y6T・・・「細Y6」の中心線
Y6b・・・「細Y6」の7細分のうちの1細分
Y6d・・・「細Y6」の7細分のうちの1細分
Y6f・・・「細Y6」の7細分のうちの1細分
Y6h・・・「細Y6」の7細分のうちの1細分
Y6p・・・「細Y6」の7細分のうちの1細分
Y6r・・・「細Y6」の7細分のうちの1細分
Y6t・・・「細Y6」の7細分のうちの1細分
yy6・・・「細Y5」、「細Y6」の両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
yy6b・・・Y5a、Y6bの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
yy6d・・・Y5c、Y6dの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
yy6f・・・Y5e、Y6fの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
yy6h・・・Y5g、Y6hの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
yy6p・・・Y5o、Y6pの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
yy6r・・・Y5q、Y6rの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
yy6t・・・Y5s、Y6tの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
Y7・・・・「細Y7」・「組形像系画像情報」
Y7T・・・「細Y7」の中心線
Y7a・・・「細Y7」の7細分のうちの1細分
Y7c・・・「細Y7」の7細分のうちの1細分
Y7e・・・「細Y7」の7細分のうちの1細分
Y7g・・・「細Y7」の7細分のうちの1細分
Y7o・・・「細Y7」の7細分のうちの1細分
Y7q・・・「細Y7」の7細分のうちの1細分
Y7s・・・「細Y7」の7細分のうちの1細分
y7・・・・「細Y7」、「細Y8」相重なる未融合画像情報
y7a・・・Y7a、Y8b相重なる未融合画像情報
y7c・・・Y7c、Y8d相重なる未融合画像情報
y7e・・・Y7e、Y8f相重なる未融合画像情報
y7g・・・Y7g、Y8h相重なる未融合画像情報
y7o・・・Y7o、Y8p相重なる未融合画像情報
y7q・・・Y7q、Y8r相重なる未融合画像情報
y7s・・・Y7s、Y8t相重なる未融合画像情報
Y8・・・・「細Y8」・「組形像系画像情報」
Y8T・・・「細Y8」の中心線
Y8b・・・「細Y8」の7細分のうちの1細分
Y8d・・・「細Y8」の7細分のうちの1細分
Y8f・・・「細Y8」の7細分のうちの1細分
Y8h・・・「細Y8」の7細分のうちの1細分
Y8p・・・「細Y8」の7細分のうちの1細分
Y8r・・・「細Y8」の7細分のうちの1細分
Y8t・・・「細Y8」の7細分のうちの1細分
y8・・・「細Y7」、「細Y8」の両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
y8b・・・Y7a、Y8bの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
y8d・・・Y7c、Y8dの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
y8f・・・Y7e、Y8fの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
y8h・・・Y7g、Y8hの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
y8p・・・Y7o、Y8pの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
y8r・・・Y7q、Y8rの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
y8t・・・Y7s、Y8tの両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報・「空間突出度画像情報」の立体画像情報
Z・・・・・各種類の融合画像情報技術別最大の融合可能距離
1・・・・・画像情報表示画面部
2・・・・・画像情報信号用 1画素部内の1ドット部、もしくは、1セル部
3・・・・・「可視自発光体類(プラズマ類用蛍光体類・エレクトロルミネッセンス類等の 可視自発光体類)」の 可視発光画像情報信号
4・・・・・1ドット部、もしくは、1セル部 各内の可視自発光体類の少なくとも1部以上、もしくは、全部の 後方方向
5・・・・・「少なくとも1部以上が、多面体類壁、錐体類壁、球体類壁、または/および、円筒類壁で構成されている箱型」、もしくは、「箱O」
6・・・・・「箱O」(符号の5)の開口部、もしくは、可視発光画像情報信号が、入光してくる開口部である 前方開口部
7・・・・・「箱O」(符号の5)の内側面、もしくは、内外両側面
8・・・・・符号の3の前記1ドット部、もしくは、1セル部から、後方へ、抜け出た、可視発光画像情報信号後方へ漏れた発光画像情報信号
9a・・・・入光した可視発光画像情報信号が、「箱O」内で反射後、同前方開口部(符号6)から、逆に、出光中の可視発光画像情報信号、もしくは、1回以上の反射を体験した 可視発光画像情報信号
9b・・・・入光した可視発光画像情報信号が、「箱O」内で反射後、同前に有る「1ドット部、もしくは、1セル部」内・外を通過中の出光可視発光画像情報信号、もしくは、同可視発光画像情報信号
9c・・・・入光した可視発光画像情報信号が、「箱O」内で反射後、同最前部に有る画像情報表示画面部から出光し、該外空間を通過中の出光可視発光画像情報信号、もしくは、同可視発光画像情報信号
10・・・・「画像情報表示画面部」「1ドット部、もしくは、1セル部の内部いずれか」『「箱O」(符号5)、もしくは、「囲壁P」(符号37)の内部いずれか』、および、『前記各部相互に挟まれた間の いずれか』の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、設置されているカラーフィルター類層
12・・・・外光
13・・・・外光が、「箱O」(符号5)「囲壁P」(符号37)で反射させられた反射外光
14・・・・外光が、「画像情報表示画面部」、もしくは、「符号21」で、反射、もしくは、分光分散させられた反射外光
15・・・・エレクトロルミネッセンス類からなる画像情報表示部類の後部
16・・・・プラズマ類からなる画像情報表示部類の後部
18・・・・観察視聴者眼球
19・・・・1画素部
20A・・・既存のプラズマ類の極めて簡単な1例である画像情報表示部断面図
20B・・・プラズマ類の画像情報表示部と「箱O」通過型設置例の極めて簡単な1例である断面図
20C・・・プラズマ類の画像情報表示部と「箱O」透過型設置例の極めて簡単な1例である断面図
21・・・・「画像情報表示画面部」に、設置された「1凸レンズ・1凸状態仕上げ物・液晶類画面用分光分散で、視野角を広げる働きのシートの1凸部」
22・・・・「箱O」(符号の5)の 少なくとも1部以上、もしくは、全部が、近似値内の方向へ、もしくは、近似値内の距離だけ 傾けられている箇所が、少なくとも1ヶ所以上 設置されている箇所
31・・・・可視発光情報信号、もしくは、可視発光画像情報信号を、備える画像情報表示部
33・・・・「可視自発光体類{SED(表面電界ディスプレイ)類用蛍光体類、プラズマ類用蛍光体類・エレクトロルミネッセンス類、液晶類用バックライト等の可視自発光体類}」から放たれた可視発光情報信号、もしくは、可視発光画像情報信号
34・・・・液晶類等の画像情報信号用 1画素部内の1ドット部、もしくは、1セル部
35・・・・1ドット部、もしくは、1セル部(符号34)を、通過 後の可視発光画像情報信号
36・・・・可視発光情報信号、もしくは、同可視発光画像情報信号が、出光する開口部である後方開口部
37・・・・「少なくとも1部以上が、多面体類壁、錐体類壁、球体類壁、または/および、円筒類壁で構成されている囲み壁」、もしくは、「囲壁P」
37A・・・全体、もしくは、1部 が、似た様な方向へ 似た様な距離だけ 共に傾けられていない「囲壁P」部分
37B・・・全体、もしくは、1部 が、似た様な方向へ 似た様な距離だけ 共に傾けられている「囲壁P」部分
38・・・・最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面
39・・・・前記「囲壁P」の内側面、もしくは、内外両側面の各1部以上の面
40・・・・前記開口部で、可視発光情報信号、もしくは、可視発光画像情報信号が、入光してくる開口部である前方開口部
41・・・・「囲壁P」(符号37)全体、もしくは、1部の、少なくとも1箇所が、似た様な方向へ似た様な距離だけ 共に傾けられている箇所
42・・・・「囲壁P」の 少なくとも1部以上、もしくは、全部が、近似値内の方向へ、もしくは、近似値内の距離だけ 傾けられている箇所が、少なくとも1ヶ所以上 設置されている箇所
43・・・・1部、多部、および、全部の内、1以上と その1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも1回以上の反射を体験した前記可視発光情報信号
44・・・・1部、多部、および、全部の内、1以上と その1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも1回以上の反射を体験した可視発光画像情報信号
45・・・・前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面(符号の38)から、前方空間へ放射される発光画像情報信号
46・・・・前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面から、前方空間へ放射される可視発光画像情報信号が、前記反射体験で偏向された 前記可視発光情報信号、もしくは、可視発光画像情報信号の 少なくともいずれか から 構成された画像情報信号
51・・・・図7・9・11において、「山型」で、構成された両離輻輳融合画像情報
52・・・・図7・9・11において、「谷型」で、構成された両離輻輳融合画像情報
53・・・・図7・9・11において、「傾斜型・上向」で、構成された両離輻輳融合画像情報
54・・・・図7・9・11において、「傾斜型・下向」で、構成された両離輻輳融合画像情報
60・・・・前面ガラス
61・・・・前面板
62・・・・保護膜
63・・・・誘電体層
64・・・・透明電極
65・・・・放電用ガス
66・・・・蛍光体
67・・・・背面板、もしくは、同透過型背面板
68・・・・縦仕切り隔壁
69・・・・アドレスデータ電極、もしくは、同透明電極
70・・・・背面ガラス
80・・・・可視自発光体類から、前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面までの 各いずれかの間の 少なくとも1ヶ所以上の位置
81・・・・偏光板
82・・・・ガラス基板
83・・・・透明誘電膜
84・・・・配向膜
85・・・・透明伝導膜
86・・・・画像情報表示部(符号の31)のバックライト層
87・・・・位相差板
88・・・・液晶層
101・・・両離輻輳融合画像情報
102・・・情報入力
103・・・情報記憶
104・・・情報記録
105・・・情報加工
106・・・情報制御
107・・・情報出力
108・・・情報再生
109・・・情報印刷
110・・・情報表示
111・・・(符号102〜110・201〜206)の内、各いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる
112・・・同種異系画像情報の2系の差異を持つ画像情報
113・・・残像による画像情報融合効果が有効な時間内の時間差で時分割画像情報処理
114・・・両離輻輳画像情報などの最適融合画像情報による、よりリアルな立体画像情報
114a・・両離輻輳画像情報などの最適融合画像情報に、符号197、207〜209を加えた、よりリアルな立体画像情報
115・・・融合範囲内の「強弱」または「高低」を増減する、又は、増減させられる差異の画像情報
116・・・融合範囲外の「強弱」または「高低」を増減する、又は、増減させられる差異の画像情報
117・・・差異の「強弱」または「高低」を ゼロにする又は、ゼロにさせられる差異ゼロの画像情報
118・・・各融合画像情報の立体画像情報領域超えに突入する立体感レベルを増減調節できる
119・・・各融合画像情報による立体画像情報領域内で立体感のレベル増減調節ができる
120・・・平面画像情報、又は、下位の立体感レベルに、移行できる
121・・・「平面画像情報内部の情報」
122・・・「音情報」
123・・・「文字情報」
124・・・「人情報」
125・・・「生物情報」
126・・・「物情報」
127・・・「カメラ類撮影状況情報」
128・・・「前記情報を除いた平面画像情報」
129・・・「人が認識できる 私的・地域的・公知的 概念認識情報」、もしくは、「人認識情報」
130・・・前記記載の1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」
131・・・「時間同軸上の音情報、同軸上の近似類の平均値音情報、または、同軸上の同偏差値音情報」
132・・・「同軸上の文字情報、同軸上の近似類の平均値文字情報、または、同軸上の同偏差値文字情報」
133・・・「同軸上の人情報、同軸上の近似類の平均値人情報、または、同軸上の同偏差値人情報」
134・・・「同軸上の生物情報、同軸上の近似類の平均値生物情報、または、同軸上の同偏差値生物情報」
135・・・「同軸上の物情報、同軸上の近似類の平均値物情報、または、同軸上の同偏差値物情報」
136・・・「同軸上のカメラ類撮影状況情報、同軸上の近似類の平均値カメラ類撮影状況情報、または、同軸上の同偏差値カメラ類撮影状況情報」
137・・・「同軸上の前記情報を除いた平面画像情報、同軸上の近似類の平均値前記情報を除いた平面画像情報、または、同軸上の同偏差値前記情報を除いた平面画像情報」
139・・・「前記記載の1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる」
140・・・「変化」
141・・・「繰り返し」
142・・・「異変」
143・・・「増加」
144・・・「減少」
145・・・「拡大」
146・・・「縮小」
147・・・「伸張」
148・・・「圧縮」
149・・・「同等」
150・・・「一致」
151・・・「近似」
152・・・「類似」
153・・・「同類」
154・・・「関連」
155・・・「差異」
156・・・「交差」
157・・・「重層」
158・・・「近接」
159・・・「接触」
160・・・「遠接」
161・・・「離反」
162・・・「傾斜」
163・・・「回転」
164・・・「反転」
165・・・「突き破り」
166・・・「目前」
167・・・「通過」
168・・・「無関係」
169・・・「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検知・検出比較する処理情報」
170・・・同比較情報行為と、同時進行で検出比較する処理情報」
171・・・「両形融合画像情報」、もしくは、「両形融合画像情報の処理実行」
172・・・「両組融合画像情報」、もしくは、「両形融合画像情報の処理実行」
173・・・「両形組融合画像情報」、もしくは、「両形融合画像情報の処理実行」
174・・・「両離輻輳融合画像情報」、もしくは、「両形融合画像情報の処理実行」
175・・・「画像情報の処理実行」
176・・・「音情報の処理実行」
176・・・「聴覚情報の処理実行」
177・・・「嗅覚情報の処理実行」
178・・・「触覚情報の処理実行」
179・・・「味覚情報の処理実行」
180・・・「以上の内、いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理情報の処理実行」
181・・・前記処理実行情報を持ち、もしくは、持たされている画像情報関連物
182・・・平面画像情報内部における各場面状況の検知・検出
183・・・A5感空間情報内部における各場面状況の検知・検出
186・・・最適の処理情報を 逐次選択し、最適の時期に、最適の時間だけ、最適の情報処理部に、最適の情報処理部運用プログラ
ム 最適の情報処理部修正プログラムを伴って、目前まで飛び出すレベル領域での立体的再現、による5感情報の圧倒的臨場感の実現
187・・・最適の処理情報を 逐次選択し、最適の時期に、最適の時間だけ、最適の情報処理部に、最適の情報処理部運用プログラム 最適の情報処理部修正プログラムを伴って、目前まで飛び出すレベル領域での立体的再現、による5感情報の圧倒的臨場感の実現
188・・・前記いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ を 使い分ける処理情報
189・・・直前
190・・・直後
191・・・途中
192・・・前のいずれか
193・・・後のいずれか
194・・・前記記載の内、同1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる位置
195・・・前記各融合が起こらない処理情報
196・・・空間上の移動感、停止感、重量感、軽量感、飛び出し感、引っ込み感、および、速度感の平面画像情報内表現が、より効果を上げる立体画像情報を得られる
197・・・両飽和度画像情報
201・・・情報送信
202・・・情報演算
203・・・情報検索
204・・・情報受信
205・・・情報照合
206・・・情報実行
207・・・両明度融合画像情報
208・・・両像収差度融合画像情報
209・・・両像輪郭線度融合画像情報
210・・・前記記載の内、同1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを 使い分ける処理情報
211・・・前記各融合画像情報による 立体画像情報
212・・・「人が推定できる 私的・地域的・公知的連想推定情報」、もしくは、「人推定情報」
213・・・「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」、もしくは、「制御情報」
214・・・「コンピュータプログラム言語情報の処理情報」、もしくは、「言語情報」
215・・・『同軸上の「人認識情報」、同軸上の近似値内の平均値「人認識情報」、または、同軸上の同偏差値「人認識情報」』
216・・・『同軸上の「人推定情報」、同軸上の近似値内の平均値「人推定情報」、または、同軸上の同偏差値「人推定情報」』
217・・・『同軸上の「制御情報」、同軸上の近似値内の平均値「制御情報」、または、同軸上の同偏差値「制御情報」』
218・・・『同軸上の「言語情報」、同軸上の近似値内の平均値「言語情報」、または、同軸上の同偏差値「言語情報」』
219・・・「比例」
220・・・「反比例」
221・・・「高」
222・・・「低」
223・・・「大」
224・・・「小」
225・・・「上」
226・・・「下」
227・・・「右」
228・・・「左」
229・・・「北」
230・・・「南」
231・・・「西」
232・・・「東」
234・・・「視覚情報の処理実行」
235・・・「カメラ類撮影状況情報の処理実行」
236・・・「人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」
237・・・「人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」
238・・・「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理実行」
239・・・「コンピュータプログラム言語情報の処理実行」
244・・・「視覚計測センサー類で観測される情報」
245・・・「聴覚計測センサー類で観測される情報」
246・・・「嗅覚計測センサー類で観測される情報」
247・・・「味覚計測センサー類で観測される情報」
248・・・「触覚計測センサー類で観測される情報」
249・・・「同軸上の視覚計測センサー類で観測される情報、同軸上の近似値内の平均値視覚計測センサー類で観測される情報、または、同軸上の同偏差値視覚計測センサー類で観測される情報」
250・・・「同軸上の聴覚計測センサー類で観測される情報、同軸上の近似値内の平均値聴覚計測センサー類で観測される情報、または、同軸上の同偏差値聴覚計測センサー類で観測される情報」
251・・・「同軸上の嗅覚計測センサー類で観測される情報、同軸上の近似値内の平均値嗅覚計測センサー類で観測される情報、または、同軸上の同偏差値嗅覚計測センサー類で観測される情報」
252・・・「同軸上の味覚計測センサー類で観測される情報、同軸上の近似値内の平均値味覚計測センサー類で観測される情報、または、同軸上の同偏差値味覚計測センサー類で観測される情報」
253・・・「同軸上の触覚計測センサー類で観測される情報、同軸上の近似値内の平均値触覚計測センサー類で観測される情報、または、同軸上の同偏差値触覚計測センサー類で観測される情報」
260・・・2つに分けた、飽和度の同種異系画像情報同士による画像情報比較
261・・・2つに分けた、明度の同種異系画像情報同士による画像情報比較
262・・・2つに分けた、収差度の同種異系画像情報同士による画像情報比較
263・・・2つに分けた、輪郭線度の同種異系画像情報同士による画像情報比較
300・・・A5感空間
300a・・時間軸上で、繋がっている他のA5感空間
301・・・繋がっていない時間軸上の他の空間
302・・・B虚空領域
302a・・B処理群
302b・・B進入群
302c・・B表示群
302d・・B進出群
303・・・C実空領域
304・・・D領間処理部
308・・・当該B虚空領域以外のディジタル/アナログ空間情報領域
309・・・A5感空間内表示面類
310・・・Y観察画群
311・・・カメラ類で観察された平面画像情報群
312・・・カメラ類で観察する平面画像情報群
313・・・カメラ類で観察している平面画像情報群
314・・・カメラ類で観察すべき平面画像情報群
315・・・カメラ類で観察予定の平面画像情報群
316・・・Y観察画群内のディジタル、もしくは/および、アナログ処理用処理情報群
317・・・Z観測5感群
318・・・5感覚計測センサー類で観測された5感覚情報群
319・・・5感覚計測センサー類で観測する5感覚情報群
320・・・5感覚計測センサー類で観測している5感覚情報群
321・・・5感覚計測センサー類で観測すべき5感覚情報群
322・・・5感覚計測センサー類で観測予定の5感覚情報群
323・・・Z観測5感群内のディジタル、または/および、アナログ処理用処理情報群
324・・・A動画群
325・・・B動画群
326・・・特定動画画像情報群
327・・・特定平面画像情報群
328・・・B対応音群
329・・・B動画不足群
330・・・不足する特定動画画像情報群
331・・・不足する特定平面画像情報群
332・・・B対応音不足群
333・・・その他の動画画像群
334・・・処理情報作動用実在空間情報群
340・・・通信手段A
341・・・通信手段A同士が、未結合状態である部分
342・・・通信手段A同士が、結合状態である部分
343・・・E処理画群
344・・・F処理5感群
345・・・G処理認識群
346・・・H処理推定群
347・・・I処理処理群
348・・・J進入画群
349・・・K進入5感群
350・・・L進入認識群
351・・・M進入推定群
352・・・N進入処理群
353・・・O表示画群
354・・・P表示5感群
355・・・Q表示認識群
356・・・R表示推定群
357・・・S表示処理群
358・・・T進出画群
359・・・U進出5感群
360・・・V進出認識群
361・・・W進出推定群
362・・・X進出処理群
400・・・『「細Y3」、「細Y4」の「両組融合画像情報と両組融合画像情報による上下左右両離輻輳融合画像情報」・「空間深度画像情報」の立体画像情報』形成時の補間が、必要な符号402対応の融合画像情報補間部分
401・・・「細Y3」、「細Y4」の未融合画像形成時の補間が、必要な符号402対応の未融合画像情報補間部分
402・・・「細Y4」の補間が、必要な補間部分の1つ
402a・・符号402の補間部分に、複写し穴埋めできる「細Y3」の補間用画像情報部分

A ... "Large A" / "Large image system image information" a ... "Large A", "Small B" overlapping unfused image information AT ... "Large A" Center line B ... "Small B" / "Small Image System Image Information" b ... "Large A", "Small B" Dual Fusion Image Information / Maximum "Spatial Depth Image Information" Stereo image information of bb... Defocused convergence image information based on both large fusion image information of “Large A” and “Small B” • Stereo image information of “Spatial depth image information” BT. B "center line C ..." Background C "/" Composite image system image information "c ..." Background C "," Background D "overlapping unfused image information CT ... Center line of "Background C" D ... "Background D" / "Composite image system image information" d ... "Background C", "Background D" 3D image information of "Spatial protrusion image information" DT ... ・ Center line of "Background D" E ... "Set E" / "Set image system image information" e ... "Set E", "Set F" Unfused Image information ET ··· Center line of "Set E" F ... "Set F" and "Set image information" f ... Both "Set E" and "Set F" Pair fusion image information / stereoscopic image information of maximum “spatial protrusion degree image information” ff... Defocused fusion image information based on both pair fusion image information of “set E” and “set F” 3D image information of “information” FT... Center line of “set F” G... “Mixed G”, “large A” and “small B” excluding the combinations of FIGS. "One set of one or more various combinations between" set E "and" set F ", or one of the hybrids divided into at least two by the same superposition
g …… Unfused image information that overlaps “Mixed G” and “Mixed H”
GT ... ・ "Mixed G" center line
H: “Mixed H”, “Large A”, “Small B”, “Group E” and “Group F” except for the combinations of FIGS. Or one of the hybrids divided into at least two by the same superposition
h .. Mixed image information of “Mixed G” and “Mixed H” and three-dimensional image information of maximum “Spatial distortion image information”
hh ··· Double-convergence fusion image information based on both-mixture image information of "Mixed G" and "Mixed H"-Stereoscopic image information of "Spatial distortion degree image information"
HT ... Centerline of "Mixed H"
I: "Fine I", "Large image system image information"
IT ... Centerline of "Fine I"
Ia ··· one of the seven subdivisions of “Fine I”
Ic ... ・ One of the seven subdivisions of “Fine I”
Ie ... ・ 1 subdivision of 7 subdivisions
Ig ··· one of the seven subdivisions of “Fine I”
Io ... ・ 1 subdivision of 7 subdivisions
Iq ··· one of the seven subdivisions of “Fine I”
Is ... 1 subdivision of 7 subdivisions
i ... "Fine I", "Fine J" overlapping unfused image information
ia ... Ia, Jb overlapping unfused image information
ic ... Ic, Jd overlapping unfused image information
ie ... Ie, Jf overlapping unfused image information
ig ... Ig, Jh overlapping unfused image information
io ... Io, Jp overlapping unfused image information
iq ... Iq, Jr overlapping unfused image information
is ... Is, Jt overlapping unfused image information
J: "Fine J", "Small Image System Image Information"
JT ... ・ Center line of "Fine J"
Jb ... ・ One of the seven subdivisions of “Fine J”
Jd ... ・ 1 subdivision of 7 subdivisions
Jf ... ・ One of the seven subdivisions of “Fine J”
Jh ... ・ 1 subdivision of 7 subdivisions
Jp ··· one of the seven subdivisions of “Fine J”
Jr ... ・ 1 subdivision of 7 subdivisions
Jt ... ・ 1 subdivision of 7 subdivisions
j ... "Fine I", "Fine J" bimodal fusion image information, and maximum "space depth image information" stereoscopic image information
Three-dimensional image information of “spatial depth image information” by using both-shaped fused image information of jb... Ia and Jb
Three-dimensional image information of “spatial depth image information” based on both the fused image information of jd... Ic and Jd
3D image information of “spatial depth image information” based on both the fused image information of jf... Ie and Jf
Three-dimensional image information of “spatial depth image information” by using both-type fused image information of jh ... Ig and Jh
jp: Stereoscopic image information of “spatial depth image information” based on both-type fused image information of Io and Jp
Three-dimensional image information of “spatial depth image information” based on jr...
3D image information of “spatial depth image information” based on both-type fused image information of jt... Is and Jt
jj... "Fine I" and "Fine J" bilateral fusion image information and bilateral fusion image information based on the bimodal fusion image information and "Spatial depth image information" stereoscopic image information
Three-dimensional image information of “space depth image information”, jjb... Ia, Jb bimodal fusion image information and bimodal fusion image information
Three-dimensional image information of “space depth image information”, jjd... Ic, Jd bimodal fusion image information and bimodal fusion image information
Three-dimensional image information of “space depth image information” of jjf... Ie and Jf bimodal fusion image information and bimodal fusion image information.
Three-dimensional image information of “space depth image information” of jjh..., Ig and Jh bimodal fusion image information and bimodal fusion image information
jjp ... 3D image information of Io, Jp bimodal fusion image information and bilateral convergence image "space depth image information" based on bimodal fusion image information
Three-dimensional image information of “space depth image information” of jjr... Iq and Jr bimodal fusion image information and bimodal fusion image information
Three-dimensional image information of “space depth image information” in both upper and lower vergence fusion using both jjt...
K: "Thin K", "Computerized image system image information"
KT ... Centerline of "Thin K"
Ka ... 1 subdivision of 7 subdivisions
Kc ··· One of the seven subdivisions of “Fine K”
Ke ... 1 subdivision of 7 subdivisions
Kg ... ・ 1 subdivision of 7 subdivisions
Ko ... 1 subdivision of 7 subdivisions
Kq ··· One of the seven subdivisions of “Fine K”
Ks ... ・ 1 subdivision of 7 subdivisions
k: Unfused image information overlapping "Fine K" and "Fine L"
ka ... Ka, Lb overlapping unfused image information
kc: Kc, Ld overlapping unfused image information
ke ... Ke, Lf overlapping unfused image information
kg ... Kg, Lh overlapping unfused image information
ko ... Ko, Lp overlapping unfused image information
kq ... Kq, Lr overlapping unfused image information
ks ... Ks, Lt overlapping unfused image information
L: "Fine L", "Composite image system image information"
LT ... ・ "Thin L" center line
Lb ... ・ "Fine L" One of the seven subdivisions
Ld ... ・ "Fine L" One of the seven subdivisions
Lf ··· 1 subdivision of 7 subdivisions
Lh ... ・ "Fine L" One of the seven subdivisions
Lp ··· "Fine L" One of the seven subdivisions
Lr ... ・ "Fine L" One of the seven subdivisions
Lt ... ・ "Fine L" One of the seven subdivisions
l ... Both image information of "Fine K" and "Fine L". Stereoscopic image information of maximum "Spatial protrusion degree image information"
lb ... Stereoscopic image information of "spatial protrusion degree image information" based on both sets of fused image information of Ka and Lb
ld: Stereoscopic image information of “spatial protrusion degree image information” based on both sets of fused image information of Kc and Ld
lf: "Spatial protrusion image information" stereoscopic image information based on both sets of fused image information of Ke and Lf
lh: Stereoscopic image information of “spatial protrusion degree image information” based on the combined image information of Kg and Lh
lp: Stereoscopic image information of “spatial protrusion degree image information” based on both sets of fused image information of Ko and Lp
lr: Stereoscopic image information of “spatial protrusion degree image information” based on both sets of fused image information of Kq and Lr
It is a stereoscopic image information of “spatial protrusion degree image information” by both sets of fused image information of Ks and Lt.
ll ... ・ Fuse image information of both sets of “Fine K” and “Fine L” and information of both upper and lower vergence fusion images based on both sets of fusion image information ・ Stereoscopic image information of “spatial protrusion degree image information”
Ilb: Both sets of fused image information of Ka and Lb and both-vertical convergence convergence image information based on both sets of fused image information and stereoscopic image information of “spatial protrusion degree image information”
lld ... Kc and Ld both sets fusion image information and both sets convergence image information by both sets fusion image information / stereoscopic image information of "spatial protrusion degree image information"
llf..., Ke and Lf both sets fusion image information and both sets convergence image information and stereo image information of “spatial protrusion degree image information”
llh: Kg and Lh both sets fusion image information and both sets convergence image information of both sets, and stereoscopic image information of “spatial protrusion degree image information”
llp: Up and down convergence convergence image information based on both sets of fused image information of Ko and Lp and both sets of fused image information, and stereoscopic image information of “spatial protrusion degree image information”
llr: Kq, Lr both sets fusion image information and both sets convergence image information based on both sets fusion image information / stereoscopic image information of "spatial protrusion degree image information"
llt: Up and down convergence convergence image information based on both sets of fused image information of Ks and Lt and both sets of fused image information and stereoscopic image information of “spatial protrusion degree image information”
M ··· “Mix M” • One or more various combinations between “Fine I”, “Fine J”, “Fine K”, and “Fine L” excluding the combinations shown in FIGS. One of the hybrids divided into at least two by superposition
MT ・ ・ ・ ・ “Mixed M” center line
Ma ··· one of the seven subdivisions of “Mix M”
Mc ··· One of the seven subdivisions of “Mix M”
Me ··· One of the seven subdivisions of “Mix M”
Mg ··· One of the seven subdivisions of “Mix M”
Mo ... 1 subdivision of 7 subdivisions of "Mixed M"
Mq ··· One of the seven subdivisions of “Mix M”
Ms ... ・ One of the seven subdivisions of “Mix M”
m ... "Mixed M", "Mixed N" overlapping unfused image information
ma ... Ma, Nb overlapping unfused image information
mc: Unfused image information that overlaps Mc and Nd
me ... Me, Nf overlapping unfused image information
mg ... Mg, Nh overlapping unfused image information
mo ... Mo and Np overlapping unfused image information
mq: Mq, Nr overlapping unfused image information
ms: Unfused image information overlapping Ms and Nt
N ··· “Mixed N” • One or more various combinations between “Fine I”, “Fine J”, “Fine K”, and “Fine L” excluding the combinations shown in FIGS. One of the hybrids divided into at least two by superposition
NT ... ・ "Mixed N" center line
Nb ··· One of the seven subdivisions of “Mix N”
Nd ··· One of the seven subdivisions of “Mix N”
Nf ··· One of the seven subdivisions of “Mix N”
Nh ··· One of the seven subdivisions of “Mix N”
Np ... ・ One of the seven subdivisions of “Mixed N”
Nr ··· One of the seven subdivisions of “Mix N”
Nt ··· One of the seven subdivisions of “Mix N”
n ... "Mixed M" and "Mixed N" both-form fusion image information and maximum "spatial distortion image information" stereoscopic image information
Three-dimensional image information of “spatial distortion image information” based on both nb... Ma and Nb combined image information
Stereo image information of “spatial distortion degree image information” based on nd... Mc and Nd combined image information
Three-dimensional image information of “spatial distortion degree image information” based on nf... Me and Nf combined image information
Three-dimensional image information of “spatial distortion degree image information” based on nh...
Three-dimensional image information of “spatial distortion degree image information” based on np...
Three-dimensional image information of “spatial distortion degree image information” based on both-form combined image information of nr... Mq and Nr
nt: Stereoscopic image information of “spatial distortion image information” based on the combined image information of Ms and Nt
nn... "Mixed M", "Mixed N" both-shaped set fusion image information and both-sided set convergence image information based on both-type set fused image information and "Spatial distortion degree image information" stereoscopic image information
nnb: Up-and-down convergence convergence image information and stereo image information of “spatial distortion degree image information” based on both-form set fusion image information of Ma and Nb and both-form set fusion image information
nnd ... Mc, Nd bimodal image fusion image information and bimodal image fusion image information based on the bimorph image fusion image information / stereoscopic image information of "spatial distortion image information"
nnf... Me, Nf both-form set fusion image information and both-form set convergence image information and stereo image information of "spatial distortion degree image information"
nnh: Both upper and lower vergence fused image information and “spatial distortion degree image information” stereoscopic image information based on both the combined image information of Mg and Nh and the combined image information of both shapes
nnp: Up and down convergence convergence image information based on both Mo and Np combined image information and both combined image information, and stereoscopic image information of "spatial distortion degree image information"
nnr ... Mq and Nr both-form set fusion image information and both-form and no-convergence fusion image information based on the both-form set fusion image information and stereoscopic image information of "spatial distortion degree image information"
nnt... Ms, Nt both-form set fusion image information and both-form set convergence image information and stereo image information of “spatial distortion degree image information”
Q ... Square pyramid plan view of square type "image shape image information type of image information" equally divided into 7 subdivisions
Qa ... ・ One of the seven subdivisions of the square weight "Q"
Qb ... ・ One of the seven subdivisions of the square weight "Q"
Qc ・ ・ ・ ・ One of the seven subdivisions of the square weight "Q"
Qd ··· One of the seven subdivisions of the square weight "Q"
Qe ... ・ One of the seven subdivisions of the square weight "Q"
Qf ・ ・ ・ ・ ・ ・ 1 subdivision out of 7 subdivisions of square weight "Q"
Qg ・ ・ ・ ・ ・ ・ 1 subdivision out of 7 subdivisions of square weight "Q"
R: "Fine R", "Large image system image information"
RT ... Centerline of "Fine R"
Ra ... 1 subdivision of 7 subdivisions
Rc ··· one of the seven subdivisions of “Fine R”
Re ... 1 subdivision of 7 subdivisions
Rg ... 1 subdivision of 7 subdivisions
Ro ··· one of the seven subdivisions of “Fine R”
Rq ... ・ 1 subdivision of 7 subdivisions
Rs ... ・ 1 subdivision of 7 subdivisions
r ... Unfused image information overlapping "Fine R" and "Fine S"
Ra ... Ra, Sb overlapping unfused image information
rc ... Rc, Sd overlapping unfused image information
re ... Re, Sf overlapping unfused image information
rg ... Rg, Sh overlapping unfused image information
ro ・ ・ ・ Ro, Sp overlapped unfused image information
rq ... Rq, Sr overlapping unfused image information
rs ... Rs, St unstacked unfused image information
S: “Fine S”, “Small Image System Image Information”
ST ··· Centerline of “Fine S”
Sb ··· One of the seven subdivisions of “Fine S”
Sd ... 1 subdivision of 7 subdivisions
Sf ··· One of the seven subdivisions of “Fine S”
Sh ··· One of the seven subdivisions of “Fine S”
Sp ··· One of the seven subdivisions of “Fine S”
Sr ··· One of the seven subdivisions of “Fine S”
St ··· One of the seven subdivisions of “Fine S”
s: “Fine R” and “Fine S” fusion image information ・ Maximum “space depth image information” stereoscopic image information
Three-dimensional image information of “spatial depth image information” based on both-shaped fused image information of sb... Ra and Sb
Three-dimensional image information of “spatial depth image information” based on both-shaped fused image information of sd... Rc and Sd
Three-dimensional image information of “spatial depth image information” based on sf...
sh: Stereoscopic image information of “space depth image information” based on both-shaped fusion image information of Rg and Sh
3D image information of “spatial depth image information” based on sp.
Three-dimensional image information of “spatial depth image information” based on both-shaped fused image information of sr... Rq and Sr
3D image information of “space depth image information” based on st.
ss ··· Bilateral fusion image information of "Fine R" and "Fine S" and left and right defocused fusion image information based on both-form fusion image information · Stereo image information of "Spatial depth image information"
ssb ... Ra and Sb bimodal fusion image information and bilateral deconvergence fusion image information / stereoscopic image information of "space depth image information"
ssd ... Rc, Sd bilateral fusion image information and bilateral fusion image information based on bimodal fusion image information / stereoscopic image information of "space depth image information"
ssf ... Re and Sf bimodal fusion image information and bilateral deconvergence fusion image information based on bimodal fusion image information and stereoscopic image information of "spatial depth image information"
ssh ... Rg, Sh bimodal fusion image information and bilateral deconvergence fusion image information based on bimodal fusion image information / stereoscopic image information of "space depth image information"
ssp ... Ro and Sp bimodal fusion image information and bilateral deconvergence fusion image information based on bimodal fusion image information / stereoscopic image information of "space depth image information"
ssr ... Rq, Sr bilateral fusion image information and bilateral fusion image information based on bimodal fusion image information / stereoscopic image information of "space depth image information"
sst ... Rs, St bilateral fusion image information and bilateral fusion image information based on bimodal fusion image information / stereoscopic image information of "space depth image information"
T: "Thin T", "Computerized image system image information"
TT ・ ・ ・ ・ "Thin T" center line
Ta ... 1 subdivision of 7 subdivisions
Tc ... ・ 1 subdivision of 7 subdivisions
Te ... ・ 1 subdivision of 7 subdivisions
Tg ... 1 subdivision of 7 subdivisions
To ... ・ 1 subdivision of 7 subdivisions
Tq ··· One of the seven subdivisions of “Fine T”
Ts ... 1 subdivision of 7 subdivisions
t ... "Fine T", "Fine U" overlapping unfused image information
ta ... Ta, Ub overlapping unfused image information
tc: Unfused image information overlapping Tc and Ud
te ... Unfused image information that overlaps Te and Uf
tg: Tg, Uh overlapping unfused image information
to ... Unfused image information that overlaps To and Up
tq: Unfused image information overlapping Tq and Ur
ts ... Ts, Ut overlapping unfused image information
U ... "Narrow U" / "Composite image system image information"
UT ... ・ "Narrow U" center line
Ub ... ・ 1 subdivision of 7 subdivisions
Ud ... ・ One of the seven subdivisions of “Fine U”
Uf ... ・ One of the seven subdivisions of “Fine U”
Uh ... ・ 1 subdivision of 7 subdivisions
Up ... 1 subdivision of 7 subdivisions
Ur ... ・ One of the seven subdivisions of “Fine U”
Ut ... ・ One of the seven subdivisions of “Fine U”
u ... "Thin T", "Thin U" both sets fusion image information-3D image information of the maximum "space projection degree image information"
3D image information of “space protrusion degree image information” based on both sets of combined image information of ub... Ta and Ub
Three-dimensional image information of “spatial protrusion degree image information” based on the combined image information of ud... Tc and Ud
uf: "Spatial protrusion image information" stereoscopic image information based on both sets of Te and Uf image information
Three-dimensional image information of “spatial protrusion degree image information” based on the combined image information of uh... Tg and Uh
Up ... 3D image information of "spatial protrusion degree image information" based on the combined image information of To and Up
3D image information of “space projection degree image information” based on both sets of fused image information of ur... Tq and Ur
3D image information of “spatial protrusion degree image information” using both sets of Ts and Ut combined image information
uu ... ・ Both left and right convergence convergence image information based on both sets of "Fine T" and "Fine U" fusion image information and both sets of fusion image information · Stereoscopic image information of "Spatial protrusion degree image information"
ub ... Right and left decentralized fusion image information based on both sets of fusion image information of Ta and Ub and both sets of fusion image information, and stereoscopic image information of "spatial protrusion degree image information"
ud ... Tc, Ud both sets fused image information and both sets of left and right deconvergence fused image information / stereoscopic image information of "spatial protrusion degree image information"
uuf: Te and Uf both sets fusion image information and both sets of left and right convergence convergence image information and stereoscopic image information of "spatial protrusion degree image information"
uuh ... Tg, Uh both sets fusion image information and both sets of left and right convergence convergence image information and "spatial protrusion degree image information" stereoscopic image information
Upup: Both sets of To and Up fusion image information and left and right deconvergence fusion image information based on both sets of fusion image information and stereoscopic image information of "spatial protrusion degree image information"
ur ... Tq and Ur both sets fusion image information and both sets of left and right convergence convergence image information / stereoscopic image information of "spatial protrusion degree image information"
uut ... Ts, Ut both sets fusion image information and both sets of left and right convergence convergence image information and "spatial protrusion degree image information" stereoscopic image information
V ··· “Mixed V” • One or more various combinations between “Fine R”, “Fine S”, “Fine T”, and “Fine U” except for the combinations shown in FIGS. One of the hybrids divided into at least two by superposition
VT: Center line of “Mixed V”
Va: one of the seven subdivisions of “Mixed V”
Vc: one of the seven subdivisions of “Mixed V”
Ve: one of the seven subdivisions of “Mixed V”
Vg: one of the seven subdivisions of “Mixed V”
Vo: one of the seven subdivisions of “Mixed V”
Vq: one of the seven subdivisions of “Mixed V”
Vs: one of the seven subdivisions of “Mixed V”
v ···· “Mixed V”, “Mixed W” overlapping unfused image information
va ... Unfused image information overlapping Va and Wb
vc: Unfused image information overlapping Vc and Wd
ve ... Ve, Wf overlapping unfused image information
vg: Vg, Wh overlapping unfused image information
vo ... Vo, Wp overlapping unfused image information
vq ... Vq, Wr overlapping unfused image information
vs. Unfused image information overlapping Vs and Wt
W ··· “Mixed W” • Except for the combinations of FIGS. 8 and 10, “Fine R”, “Fine S”, “Fine T”, “Fine U” are one or more various combinations, or the same One of the hybrids divided into at least two by superposition
WT ・ ・ ・ ・ “Mixed W” center line
Wb ··· One of the seven subdivisions of “Mixed W”
Wd ··· One of the seven subdivisions of “Mixed W”
Wf ··· One of the seven subdivisions of “Mixed W”
Wh ··· One of the seven subdivisions of “Mixed W”
Wp ... ・ One of the seven subdivisions of “Mixed W”
Wr ··· One of the seven subdivisions of “Mixed W”
Wt ··· One of the seven subdivisions of “Mixed W”
w ... Double-blended image information of "Mixed V" and "Mixed W"-Stereoscopic image information of maximum "Spatial distortion degree image information"
Three-dimensional image information of “spatial distortion degree image information” based on wb... Va and Wb combined image information
Three-dimensional image information of “spatial distortion degree image information” based on both-type combined image information of wd... Vc and Wd
Three-dimensional image information of “spatial distortion degree image information” based on both-form combined image information of wf... Ve and Wf
Three-dimensional image information of “spatial distortion degree image information” based on both-form combined image information of wh Vg and Wh
Three-dimensional image information of “spatial distortion degree image information” based on both-form combined image information of wp ... Vo and Wp
Three-dimensional image information of “spatial distortion image information” based on both-form combined image information of wr... Vq and Wr
Three-dimensional image information of “spatial distortion degree image information” based on wt.
ww ··· “Mixed V”, “Mixed W” both-form combined image information and left-and-right mixed convergence image information based on both-form combined image information and “stereoscopic image information” stereoscopic image information
Wwb ... Va and Wb both-form set fusion image information and left-and-right deconvergence fusion image information based on both-form set fusion image information and stereoscopic image information of "spatial distortion image information"
Wwd: Vc, Wd both-form set fusion image information and right-and-left deconvergence fusion image information based on both-form set fusion image information and stereoscopic image information of “spatial distortion degree image information”
Wwf ... Ve and Wf bimodal image fusion image information and bilateral image fusion image information based on both image fusion image information and stereoscopic image information of "spatial distortion image information"
Wwh: Vg, Wh both sets of fused image information and both sets of left and right defocused fused image information based on both sets of fused image information / stereoscopic image information of "spatial protrusion degree image information"
wwww ... Vo and Wp both sets fusion image information and both sets of left and right convergence convergence image information and stereoscopic image information of "spatial protrusion degree image information"
Wwr ... Vq, Wr both sets fusion image information and left and right both deconvergence fusion image information and stereoscopic image information of "spatial protrusion degree image information"
Wwt... Vs, Wt both sets fusion image information and both sets left and right convergence convergence image information / stereoscopic image information of “spatial protrusion degree image information”
X ... Square pyramid plan view of square type "image shape image information type of image information" equally divided into 7 subdivisions
XT ... ・ Center line of square pyramid "X"
Xa ... ・ One subdivision of the seven subdivisions of the square weight "X"
Xb ... ・ One subdivision of the seven subdivisions of the square weight "X"
Xc ··· One of the seven subdivisions of the square pyramid "X"
Xd ... ・ One subdivision of the seven subdivisions of the square pyramid "X"
Xe ··· One of the seven subdivisions of the square weight "X"
Xf ··· one of the seven subdivisions of the square pyramid “X”
Xg ... ・ One subdivision of the seven subdivisions of the square pyramid "X"
Y1... "Fine Y1" · "Composite image system image information"
Y1T: Centerline of “Fine Y1”
Y1a: 1 subdivision of 7 subdivisions of “Fine Y1”
Y1c: One of the seven subdivisions of “Fine Y1”
Y1e: One of the seven subdivisions of “Fine Y1”
Y1g: 1 subdivision of 7 subdivisions of “Fine Y1”
Y1o ... one of the seven subdivisions of “Fine Y1”
Y1q: one of the seven subdivisions of “Fine Y1”
Y1s: one of the seven subdivisions of “Fine Y1”
y1... "Fine Y1", "Fine Y2" overlapping unfused image information
y1a ... Y1a, Y2b overlapping unfused image information
y1c ... unfused image information that overlaps Y1c and Y2d
y1e ... Y1e, Y2f overlapping unfused image information
y1g ... Y1g, Y2h overlapping unfused image information
y1o ... Y1o, Y2p overlapping unfused image information
y1q ... Y1q, Y2r overlapping unfused image information
y1s ... Y1s, Y2t overlapping unfused image information
Y2 ··· “Fine Y2” • “Composite image system image information”
Y2T ... Centerline of "Fine Y2"
Y2b: One of the seven subdivisions of “Fine Y2”
Y2d: One of the seven subdivisions of “Fine Y2”
Y2f: One of the seven subdivisions of “Fine Y2”
Y2h: One of the seven subdivisions of “Fine Y2”
Y2p: One of the seven subdivisions of “Fine Y2”
Y2r: One of the seven subdivisions of “Fine Y2”
Y2t: one of the seven subdivisions of “Fine Y2”
yy2: “Fine Y1” and “Fine Y2” both sets of fusion image information and both sets of up and down left and right convergence convergence image information and “Spatial depth image information” stereoscopic image information
yy2b... Y1a, Y2b both sets fused image information and both sets left and right both-side convergence convergence image information / stereoscopic image information of "space depth image information"
yy2d... Y1c, Y2d both sets fusion image information and both sets fusion image information based on both sets fusion image information / stereoscopic image information of “space depth image information”
yy2f... Y1e, Y2f both sets fusion image information and both sets fusion image information based on both sets fusion image information / stereoscopic image information of “space depth image information”
yy2h ... Y1g, Y2h both sets fusion image information and both sets left and right, both left and right convergence convergence image information / stereoscopic image information of "space depth image information"
yy2p ... Y1o, Y2p both sets fusion image information and both sets fusion image information based on both sets fusion image information, stereoscopic image information of "space depth image information"
yy2r... Y1q, Y2r both sets fused image information and both sets of fused image information, both vertical and horizontal deconvergence fused image information / stereoscopic image information of “space depth image information”
yy2t... Y1s, Y2t both sets fused image information and both sets left and right both deconvergence fused image information and "spatial depth image information" stereoscopic image information
Y3 ... ・ “Fine Y3” ・ “Composite image system image information”
Y3T ... Centerline of "Fine Y3"
Y3a: 1 subdivision of 7 subdivisions of “Fine Y3”
Y3c: One of the seven subdivisions of “Fine Y3”
Y3e: One of the seven subdivisions of “Fine Y3”
Y3g: One of the seven subdivisions of “Fine Y3”
Y3o: 1 subdivision of 7 subdivisions of “Fine Y3”
Y3q: 1 subdivision of 7 subdivisions of “Fine Y3”
Y3s: One of the seven subdivisions of “Fine Y3”
y3 ... ・ "Fine Y3", "Fine Y4" unfused image information overlapping each other
y3a ... Y3a, Y4b overlapping unfused image information
y3c ... Y3c, Y4d overlapping unfused image information
y3e ... Y3e, Y4f overlapping unfused image information
y3g ... Y3g, Y4h overlapping unfused image information
y3o ... Y3o, Y4p overlapping unfused image information
y3q ... Y3q, Y4r overlapping unfused image information
y3s ... Y3s, Y4t overlapping unfused image information
Y4 ··· "Fine Y4" · "Composite image system image information"
Y4T ... Centerline of "Fine Y4"
Y4b: One of the seven subdivisions of “Fine Y4”
Y4d: one of the seven subdivisions of “Fine Y4”
Y4f: One of the seven subdivisions of “Fine Y4”
Y4h: One of the seven subdivisions of “Fine Y4”
Y4p: One of the seven subdivisions of “Fine Y4”
Y4r: One of the seven subdivisions of “Fine Y4”
Y4t: One of the seven subdivisions of “Fine Y4”
y4... "Fine Y3", "Fine Y4" both sets of fusion image information and both sets of up and down left and right convergence convergence image information and "Spatial depth image information" stereoscopic image information
y4b ... Y3a, Y4b both sets fusion image information and both sets fusion image information based on both sets fusion image information / stereoscopic image information of "space depth image information"
y4d... Y3c, Y4d both sets fusion image information and both sets fusion image information based on both sets fusion image information / stereoscopic image information of “space depth image information”
y4f ... Y3e, Y4f both sets fusion image information and both sets of up and down left and right convergence convergence image information and "spatial depth image information" stereoscopic image information
y4h ... Y3g, Y4h both sets fusion image information and both sets fusion image information based on both sets fusion image information, stereoscopic image information of "space depth image information"
y4p ... Y3o, Y4p both-set fusion image information and both-set left-right and right-side convergence convergence image information / stereoscopic image information of "space depth image information"
y4r... Y3q, Y4r both sets fusion image information and both sets fusion image information based on both sets convergence image information and stereoscopic image information of “space depth image information”
y4t ... Y3s, Y4t both sets fusion image information and both sets of up and down left and right convergence convergence image information and "spatial depth image information" stereoscopic image information
Y5 ··· "Fine Y5" · "Composite image system image information"
Y5T ... Centerline of "Fine Y5"
Y5a: 1 subdivision of 7 subdivisions of “Fine Y5”
Y5c: One of the seven subdivisions of “Fine Y5”
Y5e: One of the seven subdivisions of “Fine Y5”
Y5g: 1 subdivision of 7 subdivisions of “Fine Y5”
Y5o: 1 subdivision of 7 subdivisions of “Fine Y5”
Y5q: 1 subdivision of 7 subdivisions of “Fine Y5”
Y5s: 1 subdivision of 7 subdivisions of “Fine Y5”
y5 ... ・ "Fine Y5", "Fine Y6" overlapping unfused image information
y5a ... Y5a, Y6b overlapping unfused image information
y5c ... Y5c, Y6d overlapping unfused image information
y5e ... Y5e, Y6f overlapping unfused image information
y5g ... Y5g, Y6h overlapping unfused image information
y5o ... Y5o, Y6p overlapping unfused image information
y5q ... Y5q, Y6r overlapping unfused image information
y5s ... Y5s, Y6t overlapping unfused image information
Y6 ··· “Fine Y6” • “Computerized image system image information”
Y6T ... Centerline of "Fine Y6"
Y6b: One of the seven subdivisions of “Fine Y6”
Y6d: One of the seven subdivisions of “Fine Y6”
Y6f: One of the seven subdivisions of “Fine Y6”
Y6h: One of the seven subdivisions of “Fine Y6”
Y6p: One of the seven subdivisions of “Fine Y6”
Y6r: One of the seven subdivisions of “Fine Y6”
Y6t: One of the seven subdivisions of “Fine Y6”
yy6... "Fine Y5", "Fine Y6" both sets of fusion image information and both sets of up and down left and right convergence convergence image information and "Spatial protrusion degree image information" stereoscopic image information
yy6b ... Y5a, Y6b both sets fusion image information and both sets fusion image information based on both sets fusion image information / stereoscopic image information of "spatial protrusion degree image information"
yy6d ... Y5c, Y6d both sets fusion image information and both sets fusion image information based on both sets fusion image information / stereoscopic image information of "spatial protrusion degree image information"
yy6f... Y5e, Y6f both sets fusion image information and both sets fusion image information based on both sets of convergence image information and stereoscopic image information of “spatial protrusion degree image information”
yy6h ... Y5g, Y6h both sets fusion image information and both sets left and right and left and right convergence convergence image information / "spatial protrusion degree image information" stereoscopic image information
yy6p ... Y5o, Y6p both sets fusion image information and both sets of up and down left and right convergence convergence image information and "spatial protrusion degree image information" stereoscopic image information
yy6r... Y5q, Y6r both sets fusion image information and both sets of up and down left and right convergence convergence image information / stereoscopic image information of “spatial protrusion degree image information”
yy6t ... Y5s, Y6t both sets fusion image information and both sets of up and down, left and right convergence convergence image information, "Spatial protrusion degree image information" stereoscopic image information
Y7 ... ・ “Fine Y7” ・ “Composite image system image information”
Y7T ... Centerline of "Fine Y7"
Y7a: One of the seven subdivisions of “Fine Y7”
Y7c: One of the seven subdivisions of “Fine Y7”
Y7e: One of the seven subdivisions of “Fine Y7”
Y7g: one of the seven subdivisions of “Fine Y7”
Y7o: 1 subdivision of 7 subdivisions of “Fine Y7”
Y7q: One of the seven subdivisions of “Fine Y7”
Y7s: One of the seven subdivisions of “Fine Y7”
y7 ... ・ "Fine Y7", "Fine Y8" overlapping unfused image information
y7a ... Y7a, Y8b overlapping unfused image information
y7c ... Y7c, Y8d overlapping unfused image information
y7e ... Y7e, Y8f overlapping unfused image information
y7g ... Y7g, Y8h unfused image information overlapping each other
y7o ... Y7o, Y8p overlapping unfused image information
y7q ... Y7q, Y8r overlapping unfused image information
y7s ... Y7s, Y8t overlapping unfused image information
Y8 ···· “Fine Y8” • “Composite image information”
Y8T: Centerline of “Fine Y8”
Y8b: One of the seven subdivisions of “Fine Y8”
Y8d: One of the seven subdivisions of “Fine Y8”
Y8f: One of the seven subdivisions of “Fine Y8”
Y8h: One of the seven subdivisions of “Fine Y8”
Y8p: One of the seven subdivisions of “Fine Y8”
Y8r: One of the seven subdivisions of “Fine Y8”
Y8t: One of the seven subdivisions of “Fine Y8”
y8... "Fine Y7", "Fine Y8" both sets of fusion image information and both sets of fusion image information of both upper and lower left and right convergence convergence image information, "Spatial protrusion degree image information" stereoscopic image information
y8b ... Y7a, Y8b both-set fusion image information and both-set left-right and right-and-left convergence convergence image information / stereoscopic image information of "spatial protrusion degree image information"
y8d ... Y7c, Y8d both sets fusion image information and both sets fusion image information based on both sets fusion image information / stereoscopic image information of "spatial protrusion degree image information"
y8f ... Y7e, Y8f both sets fusion image information and both sets fusion image information based on both sets fusion image information, stereoscopic image information of "spatial protrusion degree image information"
y8h ... Y7g, Y8h both sets fusion image information and both sets fusion image information based on both sets fusion image information, stereoscopic image information of "spatial protrusion degree image information"
y8p: Y7o, Y8p both sets fusion image information and both sets fusion image information based on both sets fusion image information / stereoscopic image information of "spatial protrusion degree image information"
y8r ... Y7q, Y8r both sets fusion image information and both sets fusion image information based on both sets convergence image information, and stereoscopic image information of "spatial protrusion degree image information"
y8t ... Y7s, Y8t both sets fusion image information and both sets fusion image information based on both sets fusion image information, "Spatial protrusion degree image information" stereoscopic image information
Z: Maximum fusion distance for each type of fusion image information technology
1. Image information display screen
2 ... For image information signal One dot part or one cell part in one pixel part
3. Visible light-emitting image information signal of “Visible self-luminous substances (visible self-luminous substances such as phosphors for plasmas and electroluminescence)”
4 ··· 1 dot portion or 1 cell portion At least one or more or all of the visible self-luminous substances in each cell
5... “Box shape in which at least one part is composed of a polyhedral wall, a cone wall, a sphere wall, and / or a cylindrical wall” or “box O”
6... Opening of “box O” (reference numeral 5), or opening through which the visible light emission image information signal enters
7 ... Inner side of “Box O” (reference numeral 5) or both inner and outer sides
8... Emission image information signal leaked backward from the 1 dot portion or 1 cell portion of reference numeral 3 and leaked backward from the visible emission image information signal
9a... After the reflected visible light emission image information signal is reflected in the “box O”, from the front opening (reference numeral 6), on the contrary, the visible light emission image information signal being emitted, or once Visible light emission image information signal that experienced the above reflection
9b... The emitted visible light emitting image when the incident visible light emitting image information signal is reflected in the “box O” and then passes through the “1 dot portion or 1 cell portion” inside / outside. Information signal or visible light emission image information signal
9c... The visible light emitting image information signal that has entered the light is emitted from the image information display screen portion in the forefront after being reflected in the “box O” and is passing through the outer space. Signal or visible light emission image information signal
10... "Image information display screen part""One dot part or inside one cell part""BoxO" (reference numeral 5) or "enclosure P" (reference numeral 37) ”And“ any one between the above parts ”, one or more, one or more various combinations, or one or more various color filters installed Class
12 ... External light
13... Reflected external light reflected by “box O” (reference numeral 5) “enclosure P” (reference numeral 37)
14... Reflected external light that is reflected or spectrally dispersed by the “image information display screen” or “reference numeral 21”
15. .. Rear part of image information display class composed of electroluminescence
16 .. Rear part of image information display unit made of plasmas
18. Observation eyeball
19 ··· 1 pixel unit
20A: Image information display section sectional view as an extremely simple example of existing plasmas
20B: Cross-sectional view which is an extremely simple example of the plasma image information display section and the “box O” passing type installation example
20C: Cross-sectional view which is an extremely simple example of the plasma image information display section and the “box O” transmission type installation example
21 ····· “Image information display screen section”, “One convex lens, one convex finished product, one convex section of the sheet that spreads the viewing angle by spectral dispersion for liquid crystal screens”
22 ··· At least one or more parts of “Box O” (reference numeral 5) or at least one portion that is inclined in the direction within the approximate value or the distance within the approximate value Location where installed
31... Image information display section provided with visible light emission information signal or visible light emission image information signal
33... From "visible self-luminous materials {phosphors for SED (surface electric field display) types, phosphors for plasmas / electroluminescence, backlights for liquid crystals, etc.}" Released visible light emission information signal or visible light emission image information signal
34... For image information signals such as liquid crystal 1 dot portion in 1 pixel portion or 1 cell portion
35... Visible light emission image information signal after passing through one dot portion or one cell portion (reference numeral 34)
36... Rear opening that is a light emitting information signal or visible light emitting image information signal.
37... "Enclosure wall in which at least one part is composed of a polyhedral wall, a cone wall, a sphere wall, and / or a cylinder wall" or "enclosure P"
37A: "Enclosure P" part where the whole or one part is not tilted together by a similar distance in a similar direction
37B: "Enclosure P" part where the whole or one part is inclined together by a similar distance in a similar direction
38... Display screen protective function combined with glass in front row, display screen protective function combined with transmissive plate state material surface, or display screen protective function combined with permeable membrane state material surface
39 ··· One or more surfaces of the inner surface of the “enclosure P” or both inner and outer surfaces
40... A front opening through which the visible light emission information signal or the visible light emission image information signal enters at the opening.
41... "Enclosure P" (symbol 37) or a portion where at least one part is inclined together by a similar distance in a similar direction
42 ··· At least one part or more of the “enclosure P” or at least one part that is inclined in the direction within the approximate value or the distance within the approximate value is installed Point
43... The visible light emission information signal that experienced at least one reflection by one or more and one or more and one or more combinations thereof or the same superposition among one part, many parts, and all
44... Visible light emitting image information signal that experienced at least one reflection by one or more and one or more and one or more various combinations or superposition
45 ··· the display screen protective function combined use glass surface of the front row, the display screen protection function combined use permeable plate state material surface, or the display screen protection function combined use permeable membrane state material surface 38), the emission image information signal radiated to the front space
46 ··· From the front row of the display screen protective function combined use glass surface, the same display screen protection function combined use permeable plate state material surface, or the same display screen protection function combined use permeable membrane state material surface An image information signal composed of at least one of the visible light emission information signal and the visible light emission image information signal deflected by the reflection experience.
51..., FIGS.
52..., FIGS. 7, 9, and 11, “Bet-shaped” biconvergence fusion image information
53... In FIG.
54... In FIG.
60 ... Front glass
61 ... Front plate
62... Protective film
63 .... Dielectric layer
64... Transparent electrode
65... Discharge gas
66... Phosphor
67 ··· Back plate or transmissive back plate
68 ··· Vertical partition wall
69... Address data electrode or the same transparent electrode
70 ··· Back glass
80 ··· From visible self-luminous materials, display screen protective function combined use glass surface of the front row, display screen protective function combined use transmissive plate state material surface, or display screen protective function combined use permeable film At least one or more positions between each of the state materials
81 ... Polarizing plate
82... Glass substrate
83 .. Transparent dielectric film
84... Alignment film
85... Transparent conductive film
86... Backlight layer of image information display section (reference numeral 31)
87... Retardation plate
88 ... Liquid crystal layer
101... Double convergence convergence image information
102 ... Information input
103 ... Information storage
104 ... Information recording
105 ... Information processing
106: Information control
107 ... Information output
108 ... Information reproduction
109 ... Information printing
110 ... Information display
111 ... (reference numerals 102 to 110 and 201 to 206), any one or more, the same one or more various combinations, or the same one or more various superpositions.
112... Image information having a difference of two systems of the same kind of different image information
113 Time-division image information processing with a time difference within the time when the image information fusion effect by the afterimage is effective
114... More realistic stereoscopic image information by optimal fusion image information such as both-convergence image information
114a .. More realistic stereoscopic image information obtained by adding symbols 197 and 207 to 209 to the optimal fused image information such as both-convergence image information.
115: Increase or decrease the “strength” or “high / low” within the fusion range, or the difference image information to be increased or decreased
116... Image information of difference that increases or decreases “strength” or “high / low” outside the fusion range
117... Image information with zero difference or zero difference or “high / low” difference
118... The stereoscopic level entering the stereoscopic image information area of each fused image information can be increased or decreased.
119: The level of stereoscopic effect can be increased or decreased within the stereoscopic image information area based on each fused image information.
120... Can be shifted to planar image information or a lower stereoscopic level
121... "Information inside planar image information"
122 ... "Sound information"
123 ... "Character information"
124 ... "Personal information"
125 ... "Biological information"
126 ... "thing information"
127 ... "Camera shooting status information"
128... “Planar image information excluding the information”
129 ... "People / regional / publicly known concept recognition information that humans can recognize" or "person recognition information"
130... Information consisting of one or more of the above, one or more various combinations, or one or more various overlays ”
131... "Sound information on time coaxial, average value sound information of approximations on coaxial, or same deviation value sound information on coaxial"
132 ... "Coaxial character information, coaxial average value character information, or coaxial deviation value character information"
133... "Personal information on the same axis, average person information on the same type on the same axis, or information on the same deviation value on the same axis"
134 ... "coaxial biological information, coaxial average value biological information, or coaxial deviation biological information"
135... "Coaxial object information, coaxial average value object information, or coaxial deviation data information"
136... "Coaxial coaxial camera imaging status information, coaxial approximate average camera imaging status information, or coaxial same deviation value camera imaging status information"
137 ... "Plane image information excluding the information on the same axis, average value of approximations on the same axis, plane image information excluding the information, or plane image information excluding the same deviation value on the same axis""
139 ... "consisting of one or more of the above, various combinations of one or more of the above, or one or more of various superpositions"
140 ... "Change"
141 ... "Repeat"
142 ... "Change"
143 ... "Increase"
144 ... "Decrease"
145 ... "Enlarge"
146 ... "Reduction"
147 ... "Extension"
148 ... "Compression"
149 ... "Equivalent"
150 ... "Match"
151 ... "Approximation"
152 ... "Similar"
153 ... "Similar"
154 ... "Related"
155 ... "Difference"
156 ... "Intersection"
157 ... "Multilayer"
158 ... "Proximity"
159 ... "Contact"
160 ... "Distance"
161 ... "Separation"
162 ... "Inclination"
163 ... "Rotation"
164 ... "Inversion"
165 ... "Breakthrough"
166 ... "Immediately"
167 ... "Passing"
168 ... "Unrelated"
169... "Processing information for detecting / detecting and comparing at least one or more, one or more various combinations, or one or more various overlays"
170... Processing information to be detected and compared simultaneously with the same comparison information act ”
171... "Dual fusion image information" or "Process execution of bimodal fusion image information"
172 ... "Both-set fusion image information" or "Process execution of both-type fusion image information"
173... “Dual form fusion image information” or “Process execution of double form fusion image information”
174... “Both decentralized fused image information” or “Process execution of bimodal fused image information”
175.. "Image information processing execution"
176... "Sound information processing execution"
176 ... "Execution of auditory information processing"
177 ... "Process execution of olfactory information"
178 ... "Processing of tactile information"
179 ... "Taste information processing execution"
180... "Execution of processing information consisting of one or more of the above, various combinations of the same one or more, or one or more of various superpositions"
181... Having the processing execution information or having image information related information
182 ... Detection / detection of each scene situation in the plane image information
183 ... Detection and detection of each scene situation within A5 sense space information
186: Selects optimal processing information sequentially, and sets the optimal information processing unit to the optimal information processing unit for the optimal time and at the optimal time.
Realization of overwhelming sense of realism of five sense information by three-dimensional reproduction in the level area that pops out to the forefront with an optimal information processing section correction program
187 ... Sequentially select the optimal processing information, and at the optimal time, for the optimal time, in the optimal information processing unit, with the optimal information processing unit operation program, and with the optimal information processing unit correction program, Realization of overwhelming sense of realism of 5 sense information by three-dimensional reproduction in the level area that pops out
188: Processing information for properly using one or more of the above, various combinations of the same one or more, or one or more of the various overlays
189 ... just before
190 ... immediately after
191 ... halfway
192 ... Any of the previous
193 ... one of the following
194... Of the above descriptions, one or more, various combinations of the same one or more, or positions composed of the same one or more various overlays.
195: Processing information that does not cause each fusion
196: Three-dimensional image information can be obtained that is more effective when expressed in plane image information such as a sense of movement in space, a feeling of stopping, a feeling of weight, a feeling of lightness, a feeling of popping out, a feeling of retraction, and a feeling of speed.
197 ... Saturation degree image information
201 ... Information transmission
202 ... Information calculation
203 ... Information retrieval
204 ... Information reception
205 ... Information verification
206 ... Information execution
207 ... Brightness fusion image information
208: Image aberration fusion image information
209 ... Both image contour linearity fusion image information
210... Processing information for properly using one or more of the above descriptions, various combinations of the same one or more, or various combinations of the same one or more
211... 3D image information based on each fused image information
212 ... "People / regional / public associative estimation information that humans can estimate" or "person estimation information"
213... "Processing information of any control unit, control device, control device, or control system" or "control information"
214 ... "Processing information of computer program language information" or "Language information"
215... "Coaxial" person recognition information ", coaxial average value" person recognition information ", or coaxial deviation value" person recognition information "
216... "Coaxial" person estimation information ", coaxial average value" person estimation information ", or coaxial deviation value" person estimation information "
217 ... "Coaxial control information", coaxial average value "control information", or coaxial deviation value "control information"
218 ... "Language information" on the same axis, average value "Language information" within the approximate value on the same axis, or the same deviation value "Language information" on the same axis "
219 ... "Proportional"
220 ... "Inverse proportion"
221 ... "High"
222 ... "Low"
223 ... "Large"
224 ... "Small"
225 ... "Up"
226 ... "Bottom"
227 ... "Right"
228 ... "Left"
229 ... "North"
230 ... "South"
231 ... "West"
232 ... "East"
234 ... "Visual information processing execution"
235... “Processing of camera shooting status information”
236 ... "Personal, regional, publicly known concept recognition information processing execution that humans can recognize"
237 ... "Personal / regional / publicly known association estimation information processing that humans can estimate"
238 ... "Processing execution of processing information of any of control units, control devices, control devices, and control systems"
239 ... "Processing execution of computer program language information"
244 ... "Information observed by visual measurement sensors"
245 ... "Information observed by auditory sensors"
246 ... "Information observed by olfactory sensor"
247 ... "Information observed by taste measurement sensors"
248 ... "Information observed by tactile sensor"
249 ... "Information observed by coaxial visual measurement sensors, information observed by average visual measurement sensors within approximate value on coaxial, or same deviation value visual measurement sensors on coaxial." Observed Information "
250 ... "Information observed by coaxial auditory measurement sensors, information observed by average auditory measurement sensors within approximate values on coaxial, or equivalent deviation auditory measurement sensors on coaxial" Observed Information "
251 ... "Information observed by olfactory measurement sensors on the same axis, information observed by average olfactory measurement sensors within the approximate value on the same axis, or the same deviation value olfactory measurement sensors on the same axis." Observed Information "
252 ... "Information observed by taste measuring sensors on the same axis, information observed by average taste measuring sensors within an approximate value on the same axis, or the same deviation value taste measuring sensors on the same axis." Observed Information "
253 ... "Information observed with tactile sensors on the same axis, information observed with average tactile sensors within the approximate value on the same axis, or sensors with the same deviation value on the same axis." Observed Information "
260... Image information comparison between two different types of image information with the same degree of saturation divided into two
261... Image information comparison between two different types of image information of the same kind of lightness divided into two
262... Image information comparison between two different types of image information of the same type of aberration, divided into two
263 ... Image information comparison between two different types of image information of the same kind of contour line divided into two
300 ... A5 sense space
300a ... Other A5 sense spaces connected on the time axis
301 ... Other space on the time axis that is not connected
302 ... B void area
302a ... B treatment group
302b ... B entry group
302c ... B display group
302d ・ ・ B group
303 ... C real sky region
304 ... D inter-region processing section
308: Digital / analog space information area other than the B void area
309 ... Display surface in A5 sense space
310 ... Y observation image group
311: Plane image information group observed by cameras
312 ... Plane image information group observed with cameras
313: Plane image information group observed by cameras
314: Plane image information group to be observed with cameras
315: Plane image information group to be observed with cameras
316 ... Digital or / and analog processing information information group in the Y observation image group
317 ... Z observation 5 sense groups
318 ... 5 sensory information groups observed by 5 sensory sensors
319 ... 5 sensory information groups observed with 5 sensory sensors
320 ... 5 sensory information groups observed by 5 sensory sensors
321 ... 5 sensory information groups to be observed with 5 sensory sensors
322 ... 5-sensory information group scheduled to be observed by 5-sensory sensors
323... Processing information group for digital or / and analog processing in Z observation 5 sense groups
324 ... A movie group
325 ... B movie group
326... Specific moving image information group
327: Specific plane image information group
328 ... B correspondence sound group
329 ... B Movie shortage group
330 ... Insufficient specific moving image information group
331: Specific plane image information group which is insufficient
332 ... B-compatible sound shortage group
333 ... Other moving image group
334 ... Real space information group for processing information operation
340 ... Communication means A
341... Part where communication means A are in an uncoupled state
342: a part where the communication means A are in a coupled state
343 ... E processing image group
344 ... F treatment 5 sense groups
345 ... G processing recognition group
346 ... H processing estimation group
347 ... I processing group
348 ... J approach picture group
349 ... K approach 5 sense group
350 ... L approach recognition group
351 ... M approach estimation group
352 ... N approach processing group
353 ... O display image group
354 ... P display 5 sense groups
355 ... Q display recognition group
356 ... R display estimation group
357 ... S display processing group
358 ... T advance picture group
359 ... U advance 5 senses
360 ... V advance recognition group
361 ... W advance estimation group
362 ... X advance processing group
400... "Three Y3", "Fine Y4""Both-set fusion image information and two-set fusion image information based on both-set fusion image information" and "Spatial depth image information" stereoscopic image information "formation Interpolated image information interpolating part corresponding to code 402 required
401: Interpolation of unfused image information corresponding to reference numeral 402, which requires interpolation when forming an unfused image of “Fine Y3” and “Fine Y4”
402 ... Interpolation of "Fine Y4" is one of the necessary interpolation parts
402a .. "Fine Y3" interpolation image information portion that can be copied and filled in the interpolation portion of reference numeral 402

Claims (100)

平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形融合画像情報生成の為、
「大形像系画像情報」と「小形像系画像情報」の少なくとも2つに分け
(以下、この少なくとも2つに分けられた内 「大形像系画像情報」を「大A」、同「小形像系画像情報」を「小B」と呼称する)
これを、別の、少なくとも2つからなる「他の画像情報、または/および、当該平面画像情報」
(以下、この少なくとも2つからなる各画像情報を各々 Cと Dと呼称する)
に、各重ね合わせて
(極めて簡単な1例としてCに「大A」を重ね合わせ、Dに「小B」を重ね合わせる。)、「大A」と「小B」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(=両形融合画像情報)することにより「大A」「小B」間の立体画像情報を得ることにおいて、
「大A」「小B」間が、CとDに各重ね合わせて、両形融合画像情報による立体画像情報を得る位置範囲より「大A」「小B」間を さらに引き離して、CとDに各重ね合わせることにより、「大A」「小B」間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両形融合画像情報が起こらない位置範囲において、輻輳融合画像情報により画像情報融合する
(以下、「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bilateral fusion image information,
Divided into at least two of “Large Image System Image Information” and “Small Image System Image Information” (hereinafter, “Large Image System Image Information” is divided into “Large A” and “Large Image System Image Information”). "Small image system image information" is called "Small B")
This is made up of another “at least two pieces of image information and / or plane image information”.
(Hereinafter, each piece of image information consisting of at least two is called C and D respectively)
In each case (as a very simple example, “Large A” is superimposed on C and “Small B” is superimposed on D), and “Same allogeneic” between “Large A” and “Small B”. In obtaining the stereoscopic image information between “Large A” and “Small B” by having a difference in image information comparison between “image information” and fusing the image information (= both shape fused image information),
“Large A” and “Small B” are superimposed on C and D, respectively, and “Large A” and “Small B” are further separated from the position range where stereoscopic image information is obtained from the bilateral fusion image information. By superimposing each on D, the difference between the “large A” and “small B” image information comparisons between “similar / different image information” is too large. In the position range where no information occurs, the image information is fused by the convergence fused image information (hereinafter referred to as “both separated convergence fused image information by the bilateral fused image information”).
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両組融合画像情報生成の為、
「少なくとも2組の組形像系画像情報」
(以下、この少なくとも2組の内の1組を「組E」他の1組を「組F」と呼称する。極めて簡単な1例として「1/2小形像系画像情報+1/2大形像系画像情報」系と「残りの1/2大形像系画像情報+同1/2小形像系画像情報」系の相異なる2系)
これを、別の、少なくとも2つからなる「他の画像情報、または/および、当該平面画像情報」C、D、
に、各重ね合わせて
(極めて簡単な1例としてCに「組E」を重ね合わせ、Dに「組F」を重ね合わせる)、
「組E」と「組F」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(=両組融合画像情報)することにより「組E」「組F」間の立体画像情報を得ることにおいて、
「組E」「組F」間が、CとDに各重ね合わせて、両組融合画像情報による立体画像情報を得る位置範囲より「組E」「組F」間を さらに引き離して、CとDに各重ね合わせることにより、「組E」「組F」間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両組融合画像情報が起こらない位置範囲において、輻輳融合画像情報により画像情報融合する
(以下、「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
To generate both sets of fused image information,
"At least two sets of image information of image form"
(Hereinafter, one of the at least two sets will be referred to as “set E” and the other set as “set F”. As a very simple example, “1/2 small image system image information +1/2 large” Two different systems, the "image-based image information" system and the "remaining 1/2 large image system image information + the same 1/2 small image system image information" system)
This is replaced with at least two other “other image information and / or plane image information” C, D,
In each case (as a very simple example, “set E” is overlapped with C and “set F” is overlapped with D),
Between “Group E” and “Group F”, there is a difference in image information comparison between “Group E” and “Group F” between “Group E” and “Group F”. In obtaining stereoscopic image information of
The “set E” and the “set F” are superimposed on C and D, respectively, and the “set E” and the “set F” are further separated from the position range where the stereo image information is obtained from both sets of fused image information. By superimposing each image on D, the difference between the “group E” and “group F” in the image information comparison between “similar / different image information” is too large. In the position range where no information occurs, the image information is fused by the convergence fused image information (hereinafter referred to as “both deconvergence fused image information by both sets fused image information”).
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形組融合画像情報生成の為、
『請求項1、2の各組み合わせを除く「大A」「小B」「組E」「組F」』間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つに分け、
(以下、この少なくとも2つに分けられたものを各々「混G」、「混H」と呼称する)
CとDに、各重ね合わせて
(極めて簡単な1例としてCに「混G」を重ね合わせ、Dに「混H」を重ね合わせる)、
「混G」「混H」間の1以上とその様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも2つからなる「同種異系画像情報」同士の画像情報比較で、差異を持ち画像情報融合(=両形組融合画像情報)することにより、「混G」「混H」間の立体画像情報を得ることにおいて、
「混G」「混H」間が、CとDに各重ね合わせて、両形組融合画像情報による立体画像情報を得る位置範囲より
「混G」「混H」間を さらに引き離して、CとDに各重ね合わせることにより、
「混G」「混H」間で、「同種異系画像情報」同士の画像情報比較で差異を持ちながらも、該差異が、大きすぎるため、両形組融合画像情報が起こらない位置範囲において、輻輳融合画像情報により画像情報融合する
(以下、「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bimorphic fusion image information,
“Excluding each combination of claims 1 and 2,“ Large A ”,“ Small B ”,“ Group E ”and“ Group F ”” are divided into at least two by one or more various combinations or overlapping
(Hereinafter, those divided into at least two are called “Mixed G” and “Mixed H”, respectively.)
Superimpose each of C and D (as a very simple example, superimpose “Mix G” on C and “Mix H” on D),
Image information fusion between image information comparisons of “same kind of different kind of image information” consisting of at least two of one or more of “mixed G” and “mixed H” and various combinations thereof or the same overlay ( = Obtaining stereoscopic image information between "Mixed G" and "Mixed H"
“Mixed G” and “Mixed H” are superimposed on C and D, respectively, and “Mixed G” and “Mixed H” are further separated from the position range where the stereo image information is obtained from the both-form combined image information. And D on each other,
While there is a difference in image information comparison between “same kind of different kind of image information” between “mixed G” and “mixed H”, the difference is too large, so that in the position range where the bimodal combination image information does not occur. The image information is fused by the convergence fused image information (hereinafter referred to as “both deconvergence fused image information by the bimorphic fused image information”).
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形融合画像情報生成の為、
「大A」「小B」に2分し、「大A」と「小B」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(=両形融合画像情報)することにより「大A」「小B」間の立体画像情報を得ることにおいて、
少なくとも1つからなる「画像の像形状画像情報種」を縦方向に沿って、横方向に分け目を入れる様に分けられた少なくとも2つ以上からなる形状に細分し
(極めて簡単な1例として、正方形型「画像の像形状画像情報種」を、横長の細い長方形型「画像の像形状画像情報種」に細分する)、
この細分された「画像の像形状画像情報種」から、両形融合画像情報の融合を起こさせるために、それぞれの細分ごとに「大形像系画像情報」と「小形像系画像情報」の少なくとも2つに分け
(以下、この細分ごとに少なくとも2つに分けられたものの内 「大形像系画像情報」を「細I」、同「小形像系画像情報」を「細J」と呼称する。また、順序を変え「大A」「小B」を双方同様、双方同間隔に細分化しても「細I」「細J」を得られ、同じことになる。)
「細I」「細J」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合することにより「細I」「細J」間の両形融合画像情報による立体画像情報を得ることにおいて、
「画像の像形状画像情報種」内の少なくとも1つ以上の「細I」「細J」間に置いて、前記「細I」「細J」間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形融合画像情報による立体画像情報が得られない時
(両形融合画像情報可能な差異範囲を、超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する
(以下、両形融合画像情報と 上下「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bilateral fusion image information,
Divided into “Large A” and “Small B”, and image information fusion between “Large A” and “Small B” with the same image information comparison between “similar / different image information” ) To obtain stereoscopic image information between “large A” and “small B”,
At least one “image shape image information type of image” is subdivided into at least two or more shapes that are divided so as to be divided in the horizontal direction along the vertical direction (as a very simple example, Subdivide the square type “image shape image information type of image” into horizontally long rectangular type “image shape image information type of image”),
From this subdivided “image shape image information type of image”, “large image system image information” and “small image system image information” for each subdivision in order to cause fusion of both-form fusion image information. (Hereinafter, “Large image system image information” is “Fine I” and “Small image system image information” is “Fine J”. Also, if the order is changed and “Large A” and “Small B” are both subdivided into the same interval, “Fine I” and “Fine J” can be obtained, and the same will be done.)
Three-dimensional image based on both-shaped fused image information between “Fine I” and “Fine J” by having a difference in image information comparison between “similar / different image information” between “Fine I” and “Fine J”. In getting information,
Placed between at least one “Fine I” and “Fine J” in “Image shape image information type of image”, further separating the “Fine I” and “Fine J”. As the difference between image information comparisons increases,
(Despite having a difference, the difference is too large)
When the stereo image information cannot be obtained by the both-shaped fused image information (when the difference is beyond the range where the both-shaped fused image information is possible),
Image information is merged with the convergence fused image information (hereinafter referred to as both-shaped fused image information and upper and lower “double-convergence fused image information based on both-shaped fused image information”)
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両組融合画像情報生成の為、
「組E」「組F」に2分し、「組E」と「組F」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(=両組融合画像情報)することにより「組E」「組F」間の立体画像情報を得ることにおいて、
「細I」「細J」から、横細分された両組融合画像情報を得るため「少なくとも2組の組形像系画像情報」を作り出し(以下、この少なくとも2組の内の1組を「細K」他の1組を「細L」と呼称する。また、順番を変え「組E」「組F」を双方同様、双方同間隔に細分化しても「細K」「細L」が得られ、同じことになる。)、
「細K」「細L」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合することにより「細K」「細L」間の両組融合画像情報による立体画像情報を得ることにおいて、
「画像の像形状画像情報種」内の 少なくとも1つ以上の「細K」「細L」間に置いて、前記「細K」「細L」間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両組融合画像情報による立体画像情報が得られない時
(両組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する
(以下、両組融合画像情報と 上下「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
To generate both sets of fused image information,
Divided into “Group E” and “Group F”, and image information fusion between “Group E” and “Group F” has a difference in image information comparison between “similar / different image information” (= Both-group fusion image information) ) To obtain stereoscopic image information between “set E” and “set F”,
From “Fine I” and “Fine J”, in order to obtain both sets of merged image information, “at least two sets of combined image system image information” are created (hereinafter, one of the at least two sets is referred to as “ “Fine K” and the other set are called “Fine L.” Also, “Fine K” and “Fine L” are changed even if the order is changed, and “Fitting E” and “Fitting F” are divided into the same interval. Will be the same).
Three-dimensional image based on both sets of fused image information between “Fine K” and “Fine L” by fusing image information by having a difference in image information comparison between “similar / different image information” between “Fine K” and “Fine L” In getting information,
Placed between at least one “fine K” and “fine L” in the “image shape image information type of image”, further separating the “fine K” and “fine L”, and “similar image information” As the difference between image information comparisons increases,
(Despite having a difference, the difference is too large)
When stereoscopic image information based on both sets of fused image information cannot be obtained (when the difference is in a range beyond the difference range where both sets of fused image information are possible),
Image information is merged with the convergence fused image information (hereinafter referred to as both sets fused image information and upper and lower “both separated convergence fused image information by both sets fused image information”).
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形組融合画像情報生成の為、
『請求項4、5の各組み合わせを除く「細I」「細J」「細K」「細L」間を1以上とその様々な組み合わせ、もしくは、同重ね合わせによる、少なくとも2つに分け、
(以下、この少なくとも2つに分けられたものを各々「混M」、「混N」と呼称する)、
「混M」「混N」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合することにより「混M」「混N」間の両形組融合画像情報による立体画像情報を得ることにおいて、
「画像の像形状画像情報種」内の 少なくとも1つ以上の「混M」「混N」間において、
前記「混M」「混N」間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形組融合画像情報による立体画像情報が得られない時
(両形組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する
(以下、両形組融合画像情報と 上下「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bimorphic fusion image information,
[Excluding each combination of claims 4 and 5, "Fine I", "Fine J", "Fine K", "Fine L" are divided into one or more and various combinations thereof, or at least two by the same superposition,
(Hereinafter, those divided into at least two are referred to as “Mix M” and “Mix N” respectively).
By combining image information between “mixed M” and “mixed N” with the same image information comparison between “similar / different image information”, the three-dimensional combined image information between “mixed M” and “mixed N” In obtaining image information,
Between at least one “Mix M” and “Mix N” in “Image shape image information type of image”,
By further separating the “mixed M” and “mixed N”, the difference in image information comparison between the “similar / different image information” increases,
(Despite having a difference, the difference is too large)
When the stereo image information cannot be obtained from the both-form set image information (when the difference is in a range exceeding the difference range where the both-form set image information is possible),
Image information is merged with the convergence fused image information (hereinafter referred to as both-shaped set fused image information and upper and lower "double-convergence fused image information by both-shaped set fused image information")
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形融合画像情報生成の為、
「大A」「小B」に2分し、「大A」と「小B」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(=両形融合画像情報)することにより「大A」「小B」間の立体画像情報を得ることにおいて、
少なくとも1つからなる「画像の像形状画像情報種」を横方向に沿って、縦方向に分け目を入れる様に分けられた少なくとも2つ以上からなる形状に細分し
(極めて簡単な1例として、正方形型「画像の像形状画像情報種」を、縦長の細い長方形型「画像の像形状画像情報種」に細分する)、
この細分された「画像の像形状画像情報種」から、両形融合画像情報の融合を起こさせるために、それぞれの細分ごとに「大形像系画像情報」と「小形像系画像情報」の少なくとも2つに分け
(以下、この細分ごとに少なくとも2つに分けられたものの内 「大形像系画像情報」を「細R」、同「小形像系画像情報」を「細S」と呼称する。また、順序を変え「大A」「小B」を双方同様、双方同間隔に細分化しても「細R」「細S」を得られ、同じことになる。)
「細R」「細S」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合することにより「細R」「細S」間の両形融合画像情報による立体画像情報を得ることにおいて、
「画像の像形状画像情報種」内の少なくとも1つ以上の「細R」「細S」間に置いて、前記「細R」「細S」間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形融合画像情報による立体画像情報が得られない時
(両形融合画像情報可能な差異範囲を、超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する
(以下、両形融合画像情報と 左右「両形融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bilateral fusion image information,
Divided into “Large A” and “Small B”, and image information fusion between “Large A” and “Small B” with the same image information comparison between “similar / different image information” ) To obtain stereoscopic image information between “large A” and “small B”,
At least one “image shape image information type of image” is subdivided into at least two or more shapes divided in the vertical direction along the horizontal direction (as a very simple example, Subdivide the square type "image shape image information type of image" into a vertically long rectangular type "image shape image information type of image"),
From this subdivided “image shape image information type of image”, “large image system image information” and “small image system image information” for each subdivision in order to cause fusion of both-form fusion image information. (Hereinafter, “Large image system image information” is divided into “Fine R” and “Small image system image information” is divided into “Fine S”. In addition, even if the order is changed and “Large A” and “Small B” are both subdivided into the same interval, “Fine R” and “Fine S” can be obtained, and the same will be done.)
Three-dimensional image based on both-shaped fusion image information between “Fine R” and “Fine S” by having image information fusion between “Fine R different image information” between “Fine R” and “Fine S” with image information comparison. In getting information,
Placed between at least one “fine R” and “fine S” in the “image shape image information type of image”, further separating the “fine R” and “fine S”, and “similar / different image information” As the difference between image information comparisons increases,
(Despite having a difference, the difference is too large)
When the stereo image information cannot be obtained by the both-shaped fused image information (when the difference is beyond the range where the both-shaped fused image information is possible),
Image information is merged with the convergence fused image information (hereinafter referred to as the bilateral fused image information and the left and right "both separated convergence image information by the bilateral fused image information")
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両組融合画像情報生成の為、
「組E」「組F」に2分し、「組E」と「組F」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合(=両組融合画像情報)することにより「組E」「組F」間の立体画像情報を得ることにおいて、
「細R」「細S」から、縦細分された両組融合画像情報を得るため「少なくとも2組の組形像系画像情報」を作り出し
(以下、この少なくとも2組の内の1組を「細T」他の1組を「細U」と呼称する。
また、順番を変え「組E」「組F」を双方同様、双方同間隔に細分化しても「細T」「細U」が得られ、同じことになる。)、
「細T」「細U」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合することにより「細T」「細U」間の両組融合画像情報による立体画像情報を得ることにおいて、
「画像の像形状画像情報種」内の 少なくとも1つ以上の「細T」「細U」間に置いて、前記「細T」「細U」間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両組融合画像情報による立体画像情報が得られない時
(両組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する
(以下、両組融合画像情報と 左右「両組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
To generate both sets of fused image information,
Divided into “Group E” and “Group F”, and image information fusion between “Group E” and “Group F” has a difference in image information comparison between “similar / different image information” (= Both-group fusion image information) ) To obtain stereoscopic image information between “set E” and “set F”,
In order to obtain both sets of fused image information vertically subdivided from “Fine R” and “Fine S”, “at least two sets of combined image system image information” are created (hereinafter, one of the at least two sets is referred to as “ The other set of “Fine T” is called “Fine U”.
Further, even if the order is changed and “set E” and “set F” are both subdivided at the same interval, “thin T” and “thin U” are obtained, and the same thing is obtained. ),
Three-dimensional images based on both sets of fused image information between “Fine T” and “Fine U” by combining image information with a difference in image information comparison between “similar / different image information” between “Fine T” and “Fine U” In getting information,
Placed between at least one “thin T” and “thin U” in the “image shape image information type of image”, and further separating the “thin T” and “thin U”, As the difference between image information comparisons increases,
(Despite having a difference, the difference is too large)
When stereoscopic image information based on both sets of fused image information cannot be obtained (when the difference is in a range beyond the difference range where both sets of fused image information are possible),
The image information is fused by the convergence fused image information (hereinafter referred to as both sets of fused image information and right and left “both separated convergence image information by both sets of fused image information”).
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
平面画像情報から 空間認識差異情報(視差画像情報ではない)を生成するため、バリフォーカルミラーと同じ形状を成す場合の「画像の像形状情報」の画像情報を除いた「画像の像形状画像情報種」から、
両形組融合画像情報生成の為、
『請求項7、8の各組み合わせを除く「細R」「細S」「細T」「細U」間を1以上の様々な組み合わせ、もしくは、同重ね合わせによる、少なくとも2つに分け、
(以下、この少なくとも2つに分けられたものを各々「混V」、「混W」と呼称する)、
「混V」「混W」間の「同種異系画像情報」同士の画像情報比較で差異を持ち画像情報融合することにより「混V」「混W」間の両形組融合画像情報による立体画像情報を得ることにおいて、
「画像の像形状画像情報種」内の 少なくとも1つ以上の「混V」「混W」間において、
前記「混V」「混W」間を さらに引き離し、「同種異系画像情報」同士の画像情報比較で差異が大きくなることにより、
(差異を持ちながらも、該差異が、大きすぎるため)、
両形組融合画像情報による立体画像情報が得られない時
(両形組融合画像情報可能な差異範囲を超えた範囲に該差異がある時)、
輻輳融合画像情報により画像情報融合する
(以下、両形組融合画像情報と 左右「両形組融合画像情報による両離輻輳融合画像情報」と呼称する)
画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする立体画像情報保持物。
In order to generate spatial recognition difference information (not parallax image information) from planar image information, “image shape image information of image” excluding image information of “image shape information of image” when forming the same shape as the varifocal mirror From `` Seeds ''
In order to generate bimorphic fusion image information,
“Excluding each combination of claims 7 and 8,“ Fine R ”,“ Fine S ”,“ Fine T ”and“ Fine U ”are divided into at least two by one or more various combinations or superposition,
(Hereinafter, those divided into at least two are called “Mixed V” and “Mixed W” respectively).
The three-dimensional combination image information between “mixed V” and “mixed W” is obtained by merging image information by having a difference in image information comparison between “same kind of different image information” between “mixed V” and “mixed W”. In obtaining image information,
Between at least one “mixed V” and “mixed W” in “image shape image information type of image”,
By further separating the “mixed V” and “mixed W”, the difference in image information comparison between the “similar / different image information” increases,
(Despite having a difference, the difference is too large)
When the stereo image information cannot be obtained from the both-form set image information (when the difference is in a range exceeding the difference range where the both-form set image information is possible),
Image information is merged with the convergence fused image information (hereinafter referred to as both-shaped set fused image information and left and right “both separated convergence fused image information based on both-shaped set fused image information”).
Having at least one or more image information, or being provided with the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, a stereoscopic image information holding object characterized in that the act can be performed in any number.
「両形融合画像情報」
「両組融合画像情報」
「両形組融合画像情報」
請求項1記載の「両形融合画像情報による両離輻輳融合画像情報」
請求項2記載の「両組融合画像情報による両離輻輳融合画像情報」
請求項3記載の「両形組融合画像情報による両離輻輳融合画像情報」
請求項4記載の『両形融合画像情報と 上下「両形融合画像情報による両離輻輳融合画像情報」』
請求項5記載の『両組融合画像情報と 上下「両組融合画像情報による両離輻輳融合画像情報」』
請求項6記載の『両形組融合画像情報と 上下「両形組融合画像情報による両離輻輳融合画像情報」』
請求項7記載の『両形融合画像情報と 左右「両形融合画像情報による両離輻輳融合画像情報」』
請求項8記載の『両組融合画像情報と 左右「両組融合画像情報による両離輻輳融合画像情報」』、
および、
請求項9記載の『両形組融合画像情報と 左右「両形組融合画像情報による両離輻輳融合画像情報」』内の、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、構成されている画像情報を、少なくとも1つ以上、備えること、もしくは、同各備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜9のいずれかに記載の立体画像情報保持物。
"Both shape fusion image information"
"Both group fusion image information"
"Both-type combined image information"
The "both deconvergence fusion image information based on both-shape fusion image information" according to claim 1
The "both deconvergence fusion image information based on both sets of fusion image information" according to claim 2
The "both deconvergence fusion image information by the both-form set fusion image information" according to claim 3
5. “Dual fusion image information and upper and lower“ both deconvergence fusion image information by double fusion image information ””
"Both-set fusion image information and upper and lower" both deconvergence fusion image information by both-set fusion image information ""
“Dual form fusion image information and upper and lower“ both deconvergence fusion image information by both form fusion image information ”” according to claim 6
The bimodal fusion image information and the left and right "biconvergence fusion image information based on the bimodal fusion image information" according to claim 7
“Both-set fusion image information and left and right“ both deconvergence fusion image information by both-set fusion image information ”” according to claim 8;
and,
The "both-shaped set fusion image information and left and right" both deconvergence fusion image information by both-type set fusion image information "" of claim 9
Having at least one or more image information composed of one or more, one or more various combinations, or one or more various superpositions;
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the stereoscopic image information holding object according to any one of claims 1 to 9, wherein the act can be performed in some amount.
時間軸上の平面画像情報内部に存在する
「音情報」
「文字情報」
「人情報」
「生物情報」
「物情報」
「カメラ類撮影状況情報」
「前記情報を除いた平面画像情報」
「人が認識できる 私的・地域的・公知的 概念認識情報」
(以下、「人認識情報」と 呼称する)
「人が推定できる 私的・地域的・公知的 連想推定情報」
(以下、「人推定情報」と 呼称する)
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」
(以下、「制御情報」と 呼称する)、および、
「コンピュータプログラム言語情報の処理情報」
(以下、「言語情報」と 呼称する)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」

「時間同軸上の音情報、同軸上の近似値内の平均値音情報、または、同軸上の同偏差値音情報」
「同軸上の文字情報、同軸上の近似値内の平均値文字情報、または、同軸上の同偏差値文字情報」
「同軸上の人情報、同軸上の近似値内の平均値人情報、または、同軸上の同偏差値人情報」
「同軸上の生物情報、同軸上の近似値内の平均値生物情報、または、同軸上の同偏差値生物情報」
「同軸上の物情報、同軸上の近似値内の平均値物情報、または、同軸上の同偏差値物情報」
「同軸上のカメラ類撮影状況情報、同軸上の近似値内の平均値カメラ類撮影状況情報、または、同軸上の同偏差値カメラ類撮影状況情報」
「同軸上の前記情報を除いた平面画像情報、同軸上の近似値内の平均値前記情報を除いた平面画像情報、または、同軸上の同偏差値前記情報を除いた平面画像情報」
『同軸上の「人認識情報」、同軸上の近似値内の平均値「人認識情報」、または、同軸上の同偏差値「人認識情報」』
『同軸上の「人推定情報」、同軸上の近似値内の平均値「人推定情報」、または、同軸上の同偏差値「人推定情報」』
『同軸上の「制御情報」、同軸上の近似値内の平均値「制御情報」、または、同軸上の同偏差値「制御情報」』、および、
『同軸上の「言語情報」、同軸上の近似値内の平均値「言語情報」、または、同軸上の同偏差値「言語情報」』
の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」
との情報比較で、
「変化」「繰り返し」「異変」「増加」「減少」「拡大」「縮小」「伸張」「圧縮」「同等」
「一致」「近似」「類似」「同類」「関連」「差異」「交差」「重層」「近接」「接触」「遠接」
「離反」「傾斜」「回転」「反転」「突き破り」「目前」「通過」「比例」「反比例」「高」
「低」「大」「小」「上」「下」「右」「左」「北」「南」「西」「東」、および、「無関係」の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」、もしくは、「同比較情報を同時進行で検出する処理情報」を、少なくとも1つ以上、持っていること、もしくは、同もたされていること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜10のいずれかに記載の立体画像情報保持物。
Present in planar image information on the time axis
"Sound information"
"Text information"
"Human information"
"Biological information"
"Material information"
"Camera shooting status information"
"Planar image information excluding the above information"
“Personal, regional, and publicly known concept recognition information that humans can recognize”
(Hereafter referred to as “person recognition information”)
"Private, regional, and publicly known association estimation information that humans can estimate"
(Hereafter referred to as “person estimation information”)
"Processing information for any of the control units, control devices, control devices, and control systems"
(Hereinafter referred to as “control information”), and
"Processing information of computer program language information"
(Hereinafter referred to as “language information”)
“Information consisting of one or more, one or more different combinations, or one or more different combinations”
And "Sound information on time coaxial, average value sound information within approximate value on coaxial, or same deviation value sound information on coaxial"
"Text information on the same axis, average value text information within the approximate value on the same axis, or the same deviation value text information on the same axis"
"Person information on the same axis, average person information within the approximate value on the same axis, or information on the same deviation person on the same axis"
"Biological information on the same axis, average value biological information within the approximate value on the same axis, or the same deviation value biological information on the same axis"
"Object information on the same axis, average value information within the approximate value on the same axis, or the same deviation value information on the same axis"
“Camera shooting status information on the same axis, average camera shooting status information within the approximate value on the same axis, or the same deviation value camera shooting status information on the same axis”
"Plane image information excluding the information on the same axis, average value within the approximate value on the same axis, plane image information excluding the information, or plane image information excluding the same deviation value on the same axis"
“Coaxial“ person recognition information ”, coaxial average value“ human recognition information ”, or coaxial deviation value“ human recognition information ”
"Coordinate" person estimation information ", coaxial average value" person estimation information ", or coaxial deviation value" person estimation information "
"Coaxial" control information ", average value" control information "within the approximate value on the coaxial, or the same deviation value" control information "on the coaxial, and
"Language information" on the same axis, average value "Language information" within the approximate value on the same axis, or the same deviation value "Language information" on the same axis "
Of which
“Information consisting of one or more, one or more different combinations, or one or more different combinations”
Compare information with
`` Change '' `` Repetition '' `` Anomaly '' `` Increase '' `` Decrease '' `` Expand '' `` Shrink '' `` Expand '' `` Compress '' `` Equivalent ''
"Match""Approximation""Similarity""Similarity""Related""Difference""Intersection""Multilayer""Proximity""Contact""Distant"
"Separation""Inclination""Rotation""Inversion""Breakthrough""Near""Pass""Proportional""Inverseproportion""High"
"Low""Large""Small""Up""Down""Right""Left""North""South""West""East" and "Unrelated"
“Processing information for detecting and comparing at least one or more, various combinations of one or more of the same, or various superpositions of one or more of the same” or “processing information for simultaneously detecting the same comparison information”. Have more than one, or have the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding material according to any one of claims 1 to 10.
請求項11記載の特徴と同じ特徴を持つ
「両形融合画像情報」
「両組融合画像情報」
「両形組融合画像情報」、および、
「両離輻輳融合画像情報」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報からなる立体画像情報保持物。
The “bimorphic fusion image information” having the same characteristics as those of claim 11
"Both group fusion image information"
“Both-form combination image information”, and
Of the "both devergence fusion image information",
A stereoscopic image information holding object including one or more, one or more various combinations, or one or more various superimposed image information.
「時間軸上の平面画像情報内部の各場面状況情報」から、もしくは、同時進行で
「両形融合画像情報の処理実行」
「両組融合画像情報の処理実行」
「両形組融合画像情報の処理実行」
「両離輻輳融合画像情報の処理実行」
「画像情報の処理実行」
「視覚情報の処理実行」
「聴覚情報の処理実行」
「嗅覚情報の処理実行」
「触覚情報の処理実行」
「味覚情報の処理実行」
「カメラ類撮影状況情報の処理実行」
「人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」
「人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの情報別の処理実行」、および、
「コンピュータプログラム言語情報の処理実行」の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる処理実行」の情報を、少なくとも1つ以上、
持っていること、もしくは、同もたされていること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜12のいずれかに記載の立体画像情報保持物。
From "Situation status information inside planar image information on the time axis" or at the same time "Processing of bimodal fusion image information"
“Execution of both sets of fused image information”
“Execution of bimorphic fusion image information”
“Execution processing of both deconvergence fusion image information”
"Execute image information"
"Execute visual information processing"
"Perform auditory information processing"
“Process execution of olfactory information”
"Tactile information processing"
"Taste information processing execution"
"Processing of camera shooting status information"
“Personal, regional, and publicly-recognized concept recognition information processing execution that humans can recognize”
“Perform processing of personal, regional, and publicly associative information that humans can estimate”
"Processing by information for any of the control units, control devices, control devices, and control systems", and
In “Processing execution of computer program language information”,
At least one or more pieces of information of “process execution consisting of any one or more, one or more various combinations, or one or more various superpositions”,
Have or have been
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding material according to any one of claims 1 to 12.
時間軸上の他の空間情報と通信手段により繋がっていない 独立し、限定され、特定される空間情報は、人が認識できる5感覚情報に還元できる 5感覚情報を その特定空間情報内に情報として保持・保留している。
(以下、本特定空間情報を「A5感空間」と呼称する)
詳細すると
「A5感空間」は、
「A5感空間」内の 時間軸上(過去時間・現在時間・未来時間)のディジタル、もし
くは/および、アナログ情報から、構成されるディジタル、もしくは/および、アナ
ログ空間情報領域 (以下、「B 虚空領域」と呼称する)、
「A5感空間」内の 時間軸上の実際に存在する空間情報から構成される実在空間情報
領域 (以下、「C実空領域」と呼称する)、および、
「A5感空間」内の時間軸上に、少なくとも1つ以上、および、同1ヶ所以上で構築さ
れる 領域間情報処理情報部
(以下、「D領間処理部」、もしくは/および、「他のD領間処理部」と呼称する)
を内包している。
および、
「B虚空領域」「C実空領域」、「D領間処理部」、もしくは/および、「他のD領間処理部」は、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合
わせによる各々の間(領域間・処理部間)を
『ディジタル、もしくは/および、アナログ通信による時間軸上の 接触通信類、非
接触通信類、有線通信類、無線通信類、および、ネットワーク通信類の いずれか1
以上と 同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで構築
される通信手段』
(以下、前記『 』内の通信手段を「通信手段A」と呼称する)
で、繋がっている。
前記「D領間処理部」は、
前記「通信手段A」を 持ちいて、
「B虚空領域」、「C実空領域」、もしくは/および、「他のD領間処理部」間を、交
信し、情報処理し、または/および、再交信する。
また、前記「D領間処理部」は、
前記「通信手段A」を 持ちいて、
当該「A5感空間」と当該「A5感空間」以外の「外の時間軸上の他の「A5感
空間」間を、交信し、情報処理し、または/および、再交信するか、
または、前記行為(当該「A5感空間」以外の「外の時間軸上の他の空間情報
領域」との交信)を、全く行わない
のいずれかの形態で、構築されている。
( 本発明における「交信」とは、
「単方向通信による送信」
「単方向通信による受信」
「双方向通信による送信」
「双方向通信による受信」、および、
「双方向通信による送受信」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重
ね合わせによる通信を 意味する)
つまり、
「A5感空間」は、
時間軸上の他の空間と 「通信手段A」を持ちいて、少なくとも繋がっていない時間軸上の最小独立した「A5感空間」を 1個単位として、
『前記「A5感空間」の1個単位以上』と
『前記「A5感空間」の1個単位以上とは、別の他の「A5感空間」の1個単位以上』の内、
1以上、同1以上の様々な組み合わせ、および、同1以上の様々な重ね合わせで、
「通信手段A」を持ちいて、時間軸上で、様々に、繋がった空間から、
その少なくとも1部以上、もしくは、全部が、構成されている。
および、
「B虚空領域」「C実空領域」「D領間処理部」、および、「通信手段A」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから 「A5感空間」の少なくとも1部以上、もしくは、多部分が、構成されている。
および、
「B虚空領域」と「C実空領域」は、「各領域」同士が、少なくとも1部以上、もしくは、多部分で、重層している。
および、
『「D領間処理部」の全部が、「B虚空領域」「C実空領域」の「各領域」から、独立している』か、もしくは、
『「D領間処理部」の少なくとも1部以上、もしくは、全部が、「B虚空領域」「C実空領域」の何れかの「各領域」の、少なくとも1部以上 から全部までの間で、重層している』か の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで構成されている「A5感空間」である。
以上のような「A5感空間」であるとき、
「B虚空領域」は、
「同領域」内の 時間軸上のディジタル、もしくは/および、アナログ空間情報領域内部に、「B処理群」、「B進入群」、「B表示群」、および、「B進出群」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「B虚空領域」の1部以上、もしくは、全部が、構成されている。
またおよび、
「B虚空領域」内の「B処理群」は、
「B虚空領域」内の ディジタル、もしくは/および、アナログ空間情報領域内に、時間軸上に存在する情報同士の様々な処理情報を 含んでいる。
従って、「B処理群」とは、
詳細すると、
「B虚空領域」内の
「通信手段A」を 持ちいて、「同領域」内に、時間軸上で存在する情報群 が、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、交信し、情報処理し、もしくは/および、他の情報処理部と 交信されることになる。
または、前記交信のために必要な時間軸上の各
ディジタル、もしくは/および、アナログ平面画像情報群
(以下、「E処理画群」と呼称する)・
同ディジタル、もしくは/および、アナログ5感覚情報群
(以下、「F処理5感群」と呼称する)・
同人が認識できる 私的・地域的・公知的 ディジタル、もしくは/および、アナログ概
念認識情報群
(以下、「G処理認識群」と呼称する)・
同人が推定できる 私的・地域的・公知的 ディジタル、もしくは/および、アナログ連
想推定情報群
(以下、「H処理推定群」と呼称する)、および、
前記同情報処理部で、交信し、情報、処理情報を情報処理し、もしくは/および、他の
情報処理部と 交信するために必要なディジタル、もしくは/および、アナログ処理用処
理情報群
(以下、「I処理処理群」と呼称する)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を含んでいる。
またおよび、
「B虚空領域」内の「B進入群」は、
「B虚空領域」内の、「当該B虚空領域」以外の 外のディジタル、もしくは/および、アナログ空間情報領域から 各々進入してくる情報を 含んでいる。
従って、「B進入群」とは、
詳細すると
「B虚空領域」内の「通信手段A」と、「当該B虚空領域」以外の「通信手段A」が 繋がり、「同領域」内へ「同領域」以外の外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、同「実在空間情報領域」から、「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部で、交信し、情報処理し、情報進入させ、もしくは/および、他の情報処理部と 交信されることになる。
または、前記交信のために必要な時間軸上の各
進入ディジタル、もしくは/および、アナログ平面画像情報群
(以下、「J進入画群」と呼称する)・
前記以外の同進入ディジタル、もしくは/および、アナログ5感覚情報群
(以下、「K進入5感群」と呼称する)・
同人が認識できる 私的・地域的・公知的 進入ディジタル、もしくは/および、アナロ
グ概念認識情報群
(以下、「L進入認識群」と呼称する)・
同人が推定できる 私的・地域的・公知的 進入ディジタル、もしくは/および、アナロ
グ連想推定情報群
(以下、「M進入推定群」と呼称する)、および、
前記同情報処理部で、交信し、情報、処理情報を情報処理し、情報進入させ、もしくは
/および、他の情報処理部と 交信するために必要なディジタル、もしくは/および、ア
ナログ処理用処理情報群
(以下、「N進入処理群」と呼称する)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を、含んでいる。
またおよび、
「B虚空領域」の「B表示群」は、
「A5感空間」内に構築され、特定される表示面類上に、時間軸上で、表示される、特定表示情報を 含んでいる。
詳細すると、
「A5感空間」内の 特定される表示面類上に、「通信手段A」を持ちいて、交信し、時間軸上で、表示させることになる「B虚空領域」内の少なくとも1つ以上、および、同1ヶ所以上の 情報処理部が、交信し、情報処理し、情報表示させ、もしくは/および、他の情報処理部と 交信することになる。
または、前記交信、同情報表示のために必要な 時間軸上の各
特定表示ディジタル、もしくは/および、アナログ平面画像情報群
(以下、「O表示画群」と呼称する)・
前記以外の同特定表示ディジタル、もしくは/および、アナログ5感覚情報群
(以下、「P表示5感群」と呼称する)・
同人が認識できる 私的・地域的・公知的 特定表示ディジタル、もしくは/および、アナログ概念認識情報群
(以下、「Q表示認識群」と呼称する)・
同人が推定できる 私的・地域的・公知的 特定表示ディジタル、もしくは/および、アナログ連想推定情報群
(以下、「R表示推定群」と呼称する)および、
前記同情報処理部で、交信し、情報、処理情報を情報処理し、情報表示させ、もしくは/および、他の情報処理部と 交信するために必要な特定表示ディジタル、もしくは/および、アナログ処理用処理情報群
(以下、「S表示処理群」と呼称する)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を、含んでいる。
またおよび、
「B虚空領域」内の「B進出群」は、
「B虚空領域」内の ディジタル、もしくは/および、アナログ空間情報領域内から「当該B虚空領域」外へ進出して行く情報を 含んでいる。
従って、「B進出群」とは、
詳細すると
「B虚空領域」内と、時間軸上の「当該B虚空領域」外の 各「通信手段A」が繋がり、「同領域」内から
「同領域」以外の
『外部の「ディジタル、もしくは/および、アナログ空間情報領域」、または/および、外部の「実在空間領域」』へ、
「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部と、交信され、情報処理し、情報進出し、もしくは/および、他の情報処理部と 交信されることになる。
または、前記交信、情報進出のために必要な時間軸上の各
進出ディジタル、もしくは/および、アナログ平面画像情報群
(以下、「T進出画群」と呼称する)・
前記以外の同進出ディジタル、もしくは/および、アナログ5感覚情報群
(以下、「U進出5感群」と呼称する)・
同人が認識できる 私的・地域的・公知的 進出ディジタル、もしくは/および、アナログ概念認識情報群
(以下、「V進出認識群」と呼称する)・
同人が推定できる 私的・地域的・公知的 進出ディジタル、もしくは/および、アナログ連想推定情報群
(以下、「W進出推定群」と呼称する)および、
前記同情報処理部で、交信し、情報、処理情報を情報処理し、情報進出させ、もしくは/および、他の情報処理部と 交信するために必要なディジタル、もしくは/および、アナログ処理用処理情報群
(以下、「X進出処理群」と呼称する)の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を、含んでいる。
また、
「C実空領域」は、
「C実空領域」内の 時間軸上の実際に存在する空間情報内部に、
「Y観察画群」、「Z観測5感群」、および、「処理情報作動用実在空間情報群」の内、いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「C実空領域」の1部以上、もしくは、全部が、構成されている。
またおよび、
「C実空領域」内の「Y 観察画群」は、
「C実空領域」内の 時間軸上に、実際に存在する空間情報領域内部を、
極めて簡単な例である空間観察用撮影カメラ類で、
撮影し、観察することにより得られる平面画像情報を 含んでいる。
従って、「Y 観察画群」とは、
詳細すると
「C実空領域」内の 時間軸上の特定される実際に存在する空間情報内部において、
前記カメラ類で、撮影し、観察することにより得られる平面画像情報を
「通信手段A」を 持ちいて、
「同領域」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部と、交信し、情報処理され、もしくは/および、他の情報処理部と 交信することを含む。
または、前記交信のために 必要な 時間軸上の各
カメラ類で 観察された実在空間情報が、保持している平面画像情報群・
同カメラ類で 観察する実在空間情報が、保持している平面画像情報群・
同カメラ類で 観察している実在空間情報が、保持している平面画像情報群・
同カメラ類で 観察すべき実在空間情報が、保持している平面画像情報群・
同カメラ類で 観察予定の実在空間情報が、保持している平面画像情報群、および、
同カメラ類の 実在空間情報観察で得られる平面画像情報群と交信し、情報処理し、も
しくは/および、他の情報処理部と交信するために必要なディジタル、もしくは/およ
び、アナログ処理用処理情報群の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を 含む。
またおよび、
「C実空領域」内の「Z観測5感群」は、
「C実空領域」が、前記観察される時間軸上の実際に存在する空間情報内部に、
前記「Y観察画群」以外の5感覚情報を 同時に保持しているため、5感覚計測センサー類により 計測され、観測獲得され、照合認識などの 情報処理が行われる5感覚情報を 含んでいる。
従って、「Z観測5感群」とは、
詳細すると
「C実空領域」内の 時間軸上の特定される実際に存在する空間情報内部において、
5感覚計測センサー類により 計測し、観測獲得する5感覚情報を
「通信手段A」を 持ちいて、
「同領域群」内の 少なくとも1つ以上、および、同1ヶ所以上の 情報処理部と、交信し、情報処理され、もしくは/および、他の情報処理部と交信することを 含む。
または、前記交信のために 必要な 時間軸上の各
前記5感覚計測センサー類で 観測された実在空間情報が、保持している5感覚情報群・
同5感覚計測センサー類で 観測する実在空間情報が、保持している5感覚情報群・
同5感覚計測センサー類で 観測している実在空間情報が、保持している5感覚情報群・
同5感覚計測センサー類で 観測すべき実在空間情報が、保持している5感覚情報群・
同5感覚計測センサー類で 観測予定の実在空間情報が、保持している5感覚情報群、
および、
同5感覚計測センサー類の 実在空間情報観測で得られる5感覚情報群と交信し、情報処
理し、もしくは/および、他の情報処理部と交信するために必要なディジタル、もしく
は/および、アナログ処理用処理情報群の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報を 含んでいる。
またおよび、
「C実空領域」内の「処理情報作動用実在空間情報群」とは、
「C実空領域」内の 時間軸上の実際に存在する空間情報内部に、
前記観察の「Y観察画群」、前記観測の「Z観測5感群」以外に、制御情報などの処理情報が、実在空間情報内部で、稼動、もしくは、作動するために必要な
処理情報作動用の実在空間情報を 含んだものである。
以上述べたことを まとめると
「A5感空間」は、
時間軸上の他の空間と 「通信手段A」を持ちいて、少なくとも繋がっていない時間軸上の最小独立した「A5感空間」を 1個単位として、
『前記「A5感空間」の1個単位以上』と
『前記「A5感空間」の1個単位以上とは、別の他の「A5感空間」の1個単位以上』の内、
1以上、同1以上の様々な組み合わせ、および、同1以上の様々な重ね合わせで、
「通信手段A」を持ちいて、時間軸上で、様々に、繋がった空間から、
その少なくとも1部以上、もしくは、全部が、構成されている。
および、
「B虚空領域」、「C実空領域」、「D領間処理部」、および、「通信手段A」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから 「A5感空間」の少なくとも1部以上、もしくは、多部分が、構成されている。
および、
「B虚空領域」と「C実空領域」は、「各領域」同士が、少なくとも1部以上、もしくは、多部分で、重層している。
および、
『「D領間処理部」の全部が、「B虚空領域」「C実空領域」の「各領域」から、独立している』か、もしくは、
『「D領間処理部」の少なくとも1部以上、もしくは、全部が、「B虚空領域」「C実空領域」の何れかの「各領域」内の、
少なくとも1部以上 から全部までの間で、重層している』か の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで構成されている「A5感空間」である。
「B虚空領域」は、
「B処理群」、「B進入群」、「B表示群」、および、「B進出群」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「B虚空領域」の1部以上、もしくは、全部が、構成されている。
「C実空領域」は、
「同領域」内の 時間軸上の実際に存在する空間情報内部に、
「Y 観察画群」、「Z観測5感群」、および、「処理情報作動用実在空間情報群」の内、いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ情報で、「C実空領域」の1部以上、もしくは、全部が、構成されている。
「D領間処理部」は、
「通信手段A」を 持ちいて、「B虚空領域」「C実空領域」、もしくは/および、「他のD領間処理部」間を、交信し、情報処理し、または/および、再交信する。
また、「D領間処理部」は、
「通信手段A」を 持ちいて、当該「A5感空間」と当該「A5感空間」以外の「外の時
間軸上の他の「A5感空間」間を、交信し、情報処理し、または/および、再交信する
か、
または、前記行為《当該「A5感空間」以外の「外の時間軸上の他の「A5感空間」
との交信》を、全く行わないか
のいずれかの形態で、
構築されている。
以上述べた様な、条件下において、
前記「A5感空間」内の
「音情報」
「文字情報」
「人情報」
「生物情報」
「物情報」
「カメラ類撮影状況情報」
「前記情報を除いた平面画像情報」
「視覚計測センサー類で観測される情報」
「聴覚計測センサー類で観測される情報」
「嗅覚計測センサー類で観測される情報」
「味覚計測センサー類で観測される情報」
「触覚計測センサー類で観測される情報」
「人が認識できる 私的・地域的・公知的 概念認識情報」
(以下、「人認識情報」と 呼称する)
「人が推定できる 私的・地域的・公知的 連想推定情報」
(以下、「人推定情報」と 呼称する)
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報」
(以下、「制御情報」と 呼称する)、および、
「コンピュータプログラム言語情報の処理情報」
(以下、「言語情報」と 呼称する)の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」

「時間同軸上の音情報、同軸上の近似値内の平均値音情報、または、同軸上の同偏差値音情報」
「同軸上の文字情報、同軸上の近似値内の平均値文字情報、または、同軸上の同偏差値文字情報」
「同軸上の人情報、同軸上の近似値内の平均値人情報、または、同軸上の同偏差値人情報」
「同軸上の生物情報、同軸上の近似値内の平均値生物情報、または、同軸上の同偏差値生物情報」
「同軸上の物情報、同軸上の近似値内の平均値物情報、または、同軸上の同偏差値物情報」
「同軸上のカメラ類撮影状況情報、同軸上の近似値内の平均値カメラ類撮影状況情報、または、同軸上の同偏差値カメラ類撮影状況情報」
「同軸上の前記情報を除いた平面画像情報、同軸上の近似値内の平均値前記情報を除いた平面画像情報、または、同軸上の同偏差値前記情報を除いた 平面画像情報」
「同軸上の視覚計測センサー類で観測される情報、同軸上の近似値内の平均値視覚計測センサー類で観測される情報、または、同軸上の同偏差値視覚計測センサー類で観測される情報」
「同軸上の聴覚計測センサー類で観測される情報、同軸上の近似値内の平均値聴覚計測センサー類で観測される情報、または、同軸上の同偏差値聴覚計測センサー類で観測される情報」
「同軸上の嗅覚計測センサー類で観測される情報、同軸上の近似値内の平均値嗅覚計測センサー類で観測される情報、または、同軸上の同偏差値嗅覚計測センサー類で観測される情報」
「同軸上の味覚計測センサー類で観測される情報、同軸上の近似値内の平均値味覚計測センサー類で観測される情報、または、同軸上の同偏差値味覚計測センサー類で観測される情報」
「同軸上の触覚計測センサー類で観測される情報、同軸上の近似値内の平均値触覚計測センサー類で観測される情報、または、同軸上の同偏差値触覚計測センサー類で観測される情報」
『同軸上の「人認識情報」、同軸上の近似値内の平均値「人認識情報」、または、同軸上の同偏差値「人認識情報」』
『同軸上の「人推定情報」、同軸上の近似値内の平均値「人推定情報」、または、同軸上の同偏差値「人推定情報」』
『同軸上の「制御情報」、同軸上の近似値内の平均値「制御情報」、または、同軸上の同偏差値「制御情報」』、および、
『同軸上の「言語情報」、同軸上の近似値内の平均値「言語情報」、または、同軸上の同偏差値「言語情報」』
の内、
「1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報」
との情報比較で、
「変化」「繰り返し」「異変」「増加」「減少」「拡大」「縮小」「伸張」「圧縮」「同等」
「一致」「近似」「類似」「同類」「関連」「差異」「交差」「重層」「近接」「接触」「遠接」
「離反」「傾斜」「回転」「反転」「突き破り」「目前」「通過」「比例」「反比例」「高」
「低」「大」「小」「上」「下」「右」「左」「北」「南」「西」「東」、および、「無関係」の内、
「少なくとも1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを検出比較する処理情報」、もしくは、「同比較情報を同時進行で検出する処理情報」を少なくとも1つ以上、持っていること、もしくは、同もたされていること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜13のいずれかに記載の立体画像情報保持物。
It is not connected to other spatial information on the time axis by means of communication. Independent, limited and specified spatial information can be reduced to 5 sensory information that can be recognized by humans. 5 sensory information as information in the specified spatial information Hold / hold.
(Hereafter, this specific space information is referred to as “A5 sense space”)
In detail, “A5 Sense Space”
Digital or / and analog space information area (hereinafter referred to as “digital sense”) composed of digital or / and analog information on the time axis (past time, present time, future time) in the “A5 sense space” Called “B void area”),
Real space information area (hereinafter referred to as “C real sky area”) composed of spatial information that actually exists on the time axis in the “A5 sense space”, and
Inter-region information processing information unit (hereinafter referred to as “D inter-region processing unit” or / and “others” constructed with at least one and at least one location on the time axis in “A5 sense space” Called "D inter-region processing unit")
Is included.
and,
“B vacant area”, “C real sky area”, “D inter-area processing section”, and / or “other D inter-area processing section”
Any one or more, one or more various combinations, or one or more various combinations (inter-region / between processing units) between “on the time axis by digital or / and analog communication” Any one of contact communication, non-contact communication, wired communication, wireless communication, and network communication
Communication means constructed by various combinations of one or more of the above, or one or more of various superpositions ”
(Hereinafter, the communication means in “” will be referred to as “communication means A”)
And they are connected.
The “D inter-region processing unit”
Having the “communication means A”,
Communicate, process information, and / or re-communication between “B vacant area”, “C real area”, and / or “other D inter-area processing units”.
In addition, the “D inter-region processing unit”
Having the “communication means A”,
Whether to communicate, process information, and / or re-communication between the “A5 feeling space” and “other“ A5 feeling space ”on the time axis outside the“ A5 feeling space ”
Alternatively, it is constructed in any form of not performing the above action (communication with “other spatial information area on the time axis outside” other than the “A5 sense space”).
("Communication" in the present invention is
"Transmission by one-way communication"
"Reception via unidirectional communication"
"Transmission via two-way communication"
"Reception via two-way communication", and
In “Transmission / reception via bidirectional communication”,
It means communication by any one or more, various combinations of one or more, or combinations of one or more of the same)
That means
"A5 sense space"
Having a “communication means A” with other space on the time axis, and at least not connected to the smallest independent “A5 sense space” on the time axis,
“One unit or more of the“ A5 sense space ”” and “One unit or more of the“ A5 sense space ”are one or more units of another“ A5 sense space ””,
1 or more, 1 or more of various combinations, and 1 or more of various combinations,
Having “communication means A”, from various connected spaces on the time axis,
At least one part or all of them are configured.
and,
Of the “B vacant area”, “C real area”, “D inter-area processing unit”, and “communication means A”,
At least one part or many parts of the “A5 sensation space” is configured from any one or more, one or more various combinations, or one or more various superpositions.
and,
The “B vacant space region” and the “C real sky region” are overlapped by “each region” in at least one part or multiple parts.
and,
“All of the“ D inter-area processing unit ”is independent of“ areas ”of“ B vacant area ”and“ C actual area ”, or
“At least one part or all of the“ D inter-area processing unit ”is between at least one part and all of the“ each area ”of any one of the“ B vacant area ”and“ C real sky area ”. , Are you layered? "
It is “A5 sensation space” composed of any one or more, one or more various combinations, or one or more various superpositions.
When it is “A5 sense space” as above,
"B void area"
Within the “same area” digital or / and analog space information area within the “B process group”, “B approach group”, “B display group”, and “B advance group” ,
One or more or all of the “B imaginary region” is configured by any one or more, various combinations of the same one or more, or various superposition information of the one or more.
And
The “B processing group” in the “B void area” is
Various processing information of information existing on the time axis is included in the digital and / or analog space information area in the “B emptiness area”.
Therefore, the “B treatment group”
In detail,
Within the “B void area”
Have “communication means A”, and at least one information group in the same area and at least one information processing unit in the same area communicate with each other in the same area. Information processing, and / or communication with other information processing units.
Alternatively, each digital or / and analog plane image information group on the time axis necessary for the communication (hereinafter referred to as “E processing image group”).
Digital or / and analog 5 sense information group (hereinafter referred to as “F treatment 5 sense group”)
Private, regional, publicly known digital and / or analog concept recognition information group (hereinafter referred to as “G processing recognition group”)
Private, regional, publicly known digital and / or analog associative estimation information group (hereinafter referred to as “H processing estimation group”) that can be estimated by the same person, and
Processing information group for digital processing and / or analog processing necessary for communicating, processing information and processing information in the information processing section, and / or communicating with other information processing section. (Referred to as "I processing group")
Any one or more, one or more various combinations, or one or more various overlay information are included.
And
The “B approach group” in the “B void area”
In the “B emptiness area”, information other than “the B emptiness area” other than digital or / and analog space information areas is included.
Therefore, "B approach group"
Specifically, “communication means A” in “B emptiness area” and “communication means A” other than “the relevant B emptiness area” are connected, and “digital or At least one and / or one information processing unit within the same area from the “/ and analog spatial information area” or / and “real space information area” to communicate and process information In other words, information is entered and / or communication with other information processing units is performed.
Or each approach digital on the time axis necessary for the communication, and / or analog plane image information group (hereinafter referred to as “J approach image group”).
Other than the above entry digital or / and analog 5 sense information group (hereinafter referred to as “K entry 5 sense group”).
Private, regional, publicly known approach digital or / and analog concept recognition information group (hereinafter referred to as “L approach recognition group”)
Private, regional, and public approach digital or / and analog associative estimation information group (hereinafter referred to as “M approach estimation group”) that can be estimated by the same person, and
Digital or / and analog processing information necessary for communication, information processing, information processing, information entry, and / or communication with other information processing units in the information processing unit Of the group (hereinafter referred to as “N approach processing group”),
Any one or more, one or more various combinations, or one or more various overlay information are included.
And
"B display group" of "B emptiness area" is
It includes specific display information that is displayed on the time axis on the display planes that are constructed and specified in the “A5 sense space”.
In detail,
At least one or more in the “B emptiness area” that will be displayed on the time axis, having “communication means A” on the specified display surface in “A5 sense space”, One or more information processing units communicate, process information, display information, and / or communicate with other information processing units.
Or, each specific display digital on the time axis necessary for the communication and the information display, or / and analog plane image information group (hereinafter referred to as “O display image group”).
Other than the above specific display digital or / and analog 5 sense information group (hereinafter referred to as “P display 5 sense group”).
Private, regional, publicly known specific display digital or / and analog concept recognition information group (hereinafter referred to as "Q display recognition group")
Private, regional, publicly known specific display digital or / and analog associative estimation information group (hereinafter referred to as “R display estimation group”) that can be estimated by the same person,
In the same information processing unit, for specific display digital or / and analog processing necessary for communicating, processing information and processing information, displaying information, and / or communicating with other information processing units Among the processing information group (hereinafter referred to as “S display processing group”),
Any one or more, one or more various combinations, or one or more various overlay information are included.
And
The “B advancement group” in the “B void area”
It contains information that advances from the digital or / and analog space information area within the “B vacant area” to the outside of the “B vacant area”.
Therefore, "B advance group"
In detail, each “communication means A” in “B emptiness area” and “outside B emptiness area” on the time axis is connected.
To “external“ digital or / and analog space information area ”or / and external“ real space area ”other than“ same area ”
Communication with at least one information processing unit in the same area and one or more information processing units, information processing, information advancement, and / or communication with other information processing units .
Or each advance digital on the time axis necessary for the communication and information advance, or / and analog plane image information group (hereinafter referred to as “T advance image group”).
Other than the above digital advancement and / or analog 5 sense information group (hereinafter referred to as “U advancement 5 sense group”).
Private, regional, publicly known advance digital or / and analog concept recognition information group (hereinafter referred to as “V advance recognition group”)
Private, regional and public advance digital or / and analog associative estimation information group (hereinafter referred to as “W advance estimation group”) that can be estimated by the same person,
Digital or / and analog processing information necessary to communicate, process information, process information, advance information, and / or communicate with other information processing units in the information processing unit Of the group (hereinafter referred to as “X advance processing group”),
Any one or more, one or more various combinations, or one or more various overlay information are included.
Also,
“C real sky region”
In the spatial information that actually exists on the time axis in the “C real sky region”,
Any one or more of the “Y observation image group”, “Z observation five sense group”, and “real space information group for processing information operation”, or one or more various combinations, or one or more various With the superposition information, one or more or all of the “C real sky region” is configured.
And
“Y observation image group” in “C real sky region”
On the time axis in the “C real sky area”, the space information area that actually exists
It ’s a very simple example of shooting cameras for space observation.
Includes plane image information obtained by photographing and observing.
Therefore, "Y observation image group"
Specifically, within the spatial information that actually exists that is specified on the time axis in the “C real sky region”,
The plane image information obtained by photographing and observing with the cameras has “communication means A”,
This includes communicating with and processing information with at least one information processing unit within the same area and one or more information processing units and / or communicating with other information processing units.
Or, the real space information observed by each camera on the time axis necessary for the communication is the plane image information group
The real space information observed by the cameras is the plane image information group
The real space information observed with the cameras is the plane image information group
The real space information to be observed by the cameras is the plane image information group
The real space information to be observed with the same camera is the plane image information group that is held, and
Digital or / and analog processing information necessary for communicating with the plane image information group obtained by observation of the real space information of the cameras, processing information, and / or communicating with other information processing units Of the group,
Any one or more, various combinations of the same one or more, or one or more of various overlay information are included.
And
“Z observation 5 sense groups” in “C real sky region”
“C real sky region” is inside the spatial information that actually exists on the observed time axis,
Since five sensory information other than the “Y observation image group” is simultaneously held, it includes five sensory information measured by five sensor measurement sensors, acquired by observation, and subjected to information processing such as collation recognition.
Therefore, "Z observation 5 sense groups"
Specifically, within the spatial information that actually exists that is specified on the time axis in the “C real sky region”,
5 sensory information to be measured and acquired by 5 sensor measurement sensors
Have "Communication means A"
This includes communicating with and processing information with at least one information processing unit within the “same area group” and with one or more information processing units, and / or communicating with other information processing units.
Or, the real space information observed by each of the five sensory sensors on the time axis required for the communication is the five sensory information group
The real space information observed by the 5 sensory sensors is the 5 sensory information group
The real space information observed by the 5 sensory sensors is the 5 sensory information group
The real sensory information that should be observed by the five sensory sensors is the five sensory information group
The real space information that is planned to be observed by the five sensory sensors is the five sensory information group
and,
Digital or / and analog processing necessary to communicate with, and / or process, and / or communicate with other information processing units from the five sensory information groups obtained by observing real spatial information of the five sensory sensors Processing information group,
It contains any one or more, various combinations of the same one or more, or one or more of various overlay information.
And
“Real space information group for processing information operation” in “C real sky region”
In the spatial information that actually exists on the time axis in the “C real sky region”,
In addition to the “Y observation image group” of the observation and the “Z observation 5 sense group” of the observation, the processing information such as control information is operated within the real space information, or the processing information necessary to operate is operated. It contains real space information for
In summary, the “A5 Sense Space”
Having a “communication means A” with other space on the time axis, and at least not connected to the smallest independent “A5 sense space” on the time axis,
“One unit or more of the“ A5 sense space ”” and “One unit or more of the“ A5 sense space ”are one or more units of another“ A5 sense space ””,
1 or more, 1 or more of various combinations, and 1 or more of various combinations,
Having “communication means A”, from various connected spaces on the time axis,
At least one part or all of them are configured.
and,
Of the “B emptiness area”, “C real sky area”, “D inter-area processing unit”, and “communication means A”,
At least one part or many parts of the “A5 sensation space” is configured from any one or more, one or more various combinations, or one or more various superpositions.
and,
The “B vacant space region” and the “C real sky region” are overlapped by “each region” in at least one part or multiple parts.
and,
“All of the“ D inter-area processing unit ”is independent of“ areas ”of“ B vacant area ”and“ C actual area ”, or
“At least one part or all of the“ D inter-area processing unit ”or all of the“ D inter-area processing units ”are included in any“ area ”of“ B imaginary area ”and“ C actual area ”.
At least one or more copies to all of them ”
It is “A5 sensation space” composed of any one or more, one or more various combinations, or one or more various superpositions.
"B void area"
Of the “B treatment group”, “B approach group”, “B display group”, and “B advance group”,
One or more or all of the “B imaginary region” is configured by any one or more, various combinations of the same one or more, or various superposition information of the one or more.
“C real sky region”
Inside the spatial information that actually exists on the time axis in the same area,
One or more of the “Y observation image group”, “Z observation five sense group”, and “real space information group for processing information operation”, one or more various combinations, or one or more various With the superposition information, one or more or all of the “C real sky region” is configured.
"D inter-region processing unit"
Have "communication means A" to communicate, process information, and / or re-communication between "B emptiness area", "C real sky area", and / or "other D inter-area processing units" To do.
In addition, the “D inter-region processing unit”
Have “Communication Means A” to communicate and process information between “A5 Sense Space” and “Other A5 Sense Space” on the outside time axis other than “A5 Sense Space”, or / And re-communication,
Or “other than“ A5 sensation space ”other than the“ A5 sensation space ”
Communicating with ”either way or not at all,
Has been built.
Under the conditions as described above,
Within the “A5 Sense Space”
"Sound information"
"Text information"
"Human information"
"Biological information"
"Material information"
"Camera shooting status information"
"Planar image information excluding the above information"
"Information observed by visual measurement sensors"
"Information observed by auditory measurement sensors"
“Information Observed by Olfactory Sensors”
“Information Observed with Taste Sensors”
"Information observed by tactile sensors"
“Personal, regional, and publicly known concept recognition information that humans can recognize”
(Hereafter referred to as “person recognition information”)
"Private, regional, and publicly known association estimation information that humans can estimate"
(Hereafter referred to as “person estimation information”)
"Processing information for any of the control units, control devices, control devices, and control systems"
(Hereinafter referred to as “control information”), and
"Processing information of computer program language information"
(Hereinafter referred to as “language information”)
“Information consisting of one or more, one or more different combinations, or one or more different combinations”
And "Sound information on time coaxial, average value sound information within approximate value on coaxial, or same deviation value sound information on coaxial"
"Text information on the same axis, average value text information within the approximate value on the same axis, or the same deviation value text information on the same axis"
"Person information on the same axis, average person information within the approximate value on the same axis, or information on the same deviation person on the same axis"
"Biological information on the same axis, average value biological information within the approximate value on the same axis, or the same deviation value biological information on the same axis"
"Object information on the same axis, average value information within the approximate value on the same axis, or the same deviation value information on the same axis"
“Camera shooting status information on the same axis, average camera shooting status information within the approximate value on the same axis, or the same deviation value camera shooting status information on the same axis”
"Plane image information excluding the information on the same axis, average value within the approximate value on the same axis, plane image information excluding the information, or plane image information excluding the same deviation value on the same axis"
"Information observed by visual measurement sensors on the same axis, information observed by average visual measurement sensors within the approximate value on the same axis, or information observed by visual measurement sensors of the same deviation value on the same axis""
“Information observed by coaxial auditory sensors, information observed by average auditory sensors within the approximate value on the same axis, or information observed by same-value auditory sensors on the same axis. "
"Information observed by olfactory sensors on the same axis, information observed by average olfactory sensors within the approximate value on the same axis, or information observed by the same olfactory sensors on the same value on the same axis""
"Information observed by taste sensor on the same axis, information observed by average taste sensor within the approximate value on the same axis, or information observed by the taste sensor of the same deviation value on the same axis""
"Information observed by tactile sensors on the same axis, information observed by average tactile sensors within the approximate value on the same axis, or information observed by the tactile sensors of the same deviation value on the same axis""
“Coaxial“ person recognition information ”, coaxial average value“ human recognition information ”, or coaxial deviation value“ human recognition information ”
"Coordinate" person estimation information ", coaxial average value" person estimation information ", or coaxial deviation value" person estimation information "
"Coaxial" control information ", average value" control information "within the approximate value on the coaxial, or the same deviation value" control information "on the coaxial, and
"Language information" on the same axis, average value "Language information" within the approximate value on the same axis, or the same deviation value "Language information" on the same axis "
Of which
“Information consisting of one or more, one or more different combinations, or one or more different combinations”
Compare information with
`` Change '' `` Repetition '' `` Anomaly '' `` Increase '' `` Decrease '' `` Expand '' `` Shrink '' `` Expand '' `` Compress '' `` Equivalent ''
"Match""Approximation""Similarity""Similarity""Related""Difference""Intersection""Multilayer""Proximity""Contact""Distant"
"Separation""Inclination""Rotation""Inversion""Breakthrough""Near""Pass""Proportional""Inverseproportion""High"
"Low""Large""Small""Up""Down""Right""Left""North""South""West""East" and "Unrelated"
At least one of “processing information for detecting and comparing at least one or more, various combinations of the same one or more, or one or more of various overlays” or “processing information for detecting the same comparison information simultaneously” That you have or have the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding material according to any one of claims 1 to 13.
請求項14記載の特徴と同じ特徴を持つことを特徴とする
「両形融合画像情報」、
「両組融合画像情報」、
「両形組融合画像情報」、および、
「両離輻輳融合画像情報」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報からなる立体画像情報保持物。
“Dual fusion image information” characterized by having the same characteristics as the characteristics of claim 14;
"Both-group fusion image information",
“Both-form combination image information”, and
Of the "both devergence fusion image information",
A stereoscopic image information holding object including one or more, one or more various combinations, or one or more various superimposed image information.
時間軸上の平面画像情報から構成される特定動画画像情報群(以下、「A動画群」と呼称する)は、時間軸上で、同一概念認識体として捕えられ、同認識でき、同表現され、同表示可能な、各連続した特定動画画像情報群から、少なくとも1部以上、もしくは、全部が、構成されている。
また、「A動画群」は、
時間軸上の極めて簡単な例である映像情報や同例の撮影画像情報などの「特定動画画像情報群」と 同例の写真画像情報や同例の絵画画像情報などの「特定平面画像情報群」の何れか1以上を含み、この「両特定画像情報群」(以下、まとめて「B動画群」と呼称する)から、前記「B動画群」を基礎として、極めて簡単な例であるコンピュータグラフィク技術などの様々なコンピュータ画像処理技術類により、「B動画群」の不足する画画像情報が 計算により導きだされた「不足する特定動画画像情報群」と「不足する特定平面画像情報群」の何れか1以上からなる『「B動画群」の不足動画画像情報群』(以下、「B動画不足群」と呼称する)を含む。
また、前記「B動画群」の少なくとも1部以上には、
前記「B動画群」が、備えている画像情報に、対応した、極めて簡単な例である音声などの音情報群(以下、「B対応音群」と 呼称する)を 含んでいるか、全く含んでいないかの何れかで構成されている。
また、同様に、前記「B動画不足群」の少なくとも1部以上には、
前記「B動画不足群」が、備えている画像情報に 対応した、極めて簡単な例である音声などの音情報(以下、「B対応音不足群」と 呼称する)を 含んでいるか、全く含んでいないかの何れかで構成されている。
つまり、
「A動画群」は、
前記請求項14記載の「A5感空間」内に含まれ、またおよび、「B虚空領域」と「C実空領域」のいずれか1つ以上と、その少なくとも1部以上、もしくは、全部が 重層している。
また、「A動画群」内は、
「B動画群」「B動画不足群」、もしくは、「その他の動画画像群」の内 いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから、少なくともその1部以上、もしくは、全部が、構成されている。
また、「B動画群」内は、
特定動画画像情報群と、特定平面画像情報群のいずれか1つ以上の様々な組み合わせで、少なくともその1部以上、もしくは、全部が、構成されている、および、「B動画群」の少なくとも1部以上には、前記「B対応音群」を 含んでいるか、もしくは、全く含んでいないかの何れかで構成されている。
また、「B動画不足群」内は、
「不足する特定動画画像情報群」と「不足する特定平面画像情報群」のいずれか1つ以上の様々な組み合わせで、少なくともその1部以上、もしくは、全部が、構成されている、および、「B動画不足群」の少なくとも1部以上には、前記「B対応音不足群」を 含んでいるか、もしくは、全く含んでいないかの何れかで構成されている。
以上の様な、条件下において、
『検知された時間軸上の「A5感空間情報」内部の各場面状況情報』から、もしくは、
「同時進行」で、
「両形融合画像情報の処理実行」
「両組融合画像情報の処理実行」
「両形組融合画像情報の処理実行」
「両離輻輳融合画像情報の処理実行」
「画像情報の処理実行」
「視覚情報の処理実行」
「聴覚情報の処理実行」
「嗅覚情報の処理実行」
「触覚情報の処理実行」
「味覚情報の処理実行」
「A動画群情報の処理実行」
「5感覚計測センサー類情報の処理実行」
「カメラ類撮影情報の処理実行」
「人が認識できる 私的・地域的・公知的 概念認識情報の処理実行」
「人が推定できる 私的・地域的・公知的 連想推定情報の処理実行」
「制御部類・制御装置類・制御機器類・制御システム類のいずれかの処理情報の処理実
行」、 および、
「コンピュータプログラム言語情報の処理実行」の内、
「いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わ
せからなる処理実行の情報」を
少なくとも1つ以上、持っていること、もしくは、同もたされていること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜15のいずれかに記載の立体画像情報保持物。
A specific moving image information group (hereinafter referred to as “A moving image group”) composed of plane image information on the time axis is captured as the same concept recognizer on the time axis, and can be recognized and expressed. At least one copy or all of the continuous specific moving image information group that can be displayed is configured.
In addition, “A movie group”
“Specific video image information group” such as video information and photographed image information of the same example, which are extremely simple examples on the time axis, and “Specific plane image information group such as photo image information of the same example and picture image information of the same example From the “both specific image information group” (hereinafter collectively referred to as “B moving image group”), which is a very simple example based on the “B moving image group”. The image data information that is lacking in the “B movie group” is derived by calculation using various computer image processing technologies such as graphics technology. Or the “insufficient moving image information group of“ B moving image group ”” (hereinafter referred to as “B moving image insufficient group”).
In addition, at least one part of the “B animation group” includes
The “B moving image group” includes a sound information group (hereinafter referred to as “B-compatible sound group”) corresponding to the image information provided, which is a very simple example, or is not included at all. It is comprised by either of them.
Similarly, at least one part of the “B video shortage group” includes
The “B moving picture deficient group” includes sound information such as voice (hereinafter referred to as “B corresponding sound deficient group”), which is a very simple example corresponding to the provided image information, or not at all. It is comprised by either of them.
That means
“A movie group”
It is included in the “A5 sensation space” according to claim 14, and one or more of “B imaginary space region” and “C real sky region” and at least one part or all of them are layered. is doing.
Also, within the “A movie group”
From at least one of “B movie group”, “B movie shortage group”, or “other movie image group”, at least one of the above combinations, or at least one of the above combinations. One or more or all of them are configured.
In addition, “B Movie Group”
At least one part or all of the specific moving image information group and the specific plane image information group and various combinations of at least one of the specific moving image information group and at least one of the “B moving image group” The above-described part is configured to include the “B-compatible sound group” or not at all.
In addition, “B movie shortage group”
At least one or more or all of one or more various combinations of “insufficient specific moving image information group” and “insufficient specific plane image information group” are configured, and “ At least one copy of the “B moving image deficient group” includes either the “B-compatible sound deficient group” or not at all.
Under the above conditions,
From “Detected scene status information inside“ A5 sense space information ”on the detected time axis” or
In "simultaneous progress"
"Process execution of bimodal fusion image information"
“Execution of both sets of fused image information”
“Execution of bimorphic fusion image information”
“Execution processing of both deconvergence fusion image information”
"Execute image information"
"Execute visual information processing"
"Perform auditory information processing"
“Process execution of olfactory information”
"Tactile information processing"
"Taste information processing execution"
“A video group information processing execution”
“Process execution of sensory sensor information”
“Processing of camera shooting information”
“Personal, regional, and publicly-recognized concept recognition information processing execution that humans can recognize”
“Perform processing of personal, regional, and publicly associative information that humans can estimate”
`` Processing information processing information for any of control units, control devices, control devices, control systems '', and
In “Processing execution of computer program language information”,
Have at least one or more of “information on processing execution consisting of any one or more, one or more various combinations, or one or more various superpositions”. thing,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding material according to any one of claims 1 to 15.
「両形融合画像情報」
「両組融合画像情報」
「両形組融合画像情報」、および、
「両離輻輳融合画像情報」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ、同様々な重ね合わせで、構成されている融合画像情報内の補間すべき融合画像情報部分に、補間用平面画像情報が 必要な場合において、
当該補間用平面画像情報が、
「両形融合画像情報」の少なくとも1部以上、
「両組融合画像情報」の少なくとも1部以上、
「両形組融合画像情報」の少なくとも1部以上、および、
「両離輻輳融合画像情報」の少なくとも1部以上の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報で、前記当該補間用平面画像情報の少なくとも1部以上、もしくは、全部が、構成されている画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜16のいずれかに記載の立体画像情報保持物。
"Both shape fusion image information"
"Both group fusion image information"
“Both-form combination image information”, and
Of the "both devergence fusion image information",
One or more, one or more various combinations, or one or more various superpositions or the same various superpositions, the fusion image information portion to be interpolated in the fusion image information configured is an interpolation plane. When image information is needed,
The interpolation plane image information is
At least one part of the “bimodal fusion image information”,
At least one part of “Both-set fusion image information”,
At least one or more of “both forms combined image information”, and
Of at least one part of “both devergence fusion image information”,
One or more, one or more various combinations, or one or more various superimposed image information, and at least one part or all of the interpolated plane image information is configured image information. , Providing at least one or more, or being provided with,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the stereoscopic image information holding object according to any one of claims 1 to 16, wherein the act can be performed in any number.
「両飽和度融合画像情報」
「両明度融合画像情報」
「両像収差度融合画像情報」、および、
「両像輪郭線度融合画像情報」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせから構成される各融合画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜17のいずれかに記載の立体画像情報保持物。
"Both saturation image information"
"Brightness fusion image information"
"Both image aberration degree fusion image information", and
In "Both-image contour-line fusion image information",
Having at least one or more or each of the fusion image information composed of one or more, one or more various combinations, or one or more various superpositions;
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding material according to any one of claims 1 to 17.
本明細書記載の「両離輻輳融合画像情報」が持つ、
「輻輳融合画像情報可能な画像情報比較の差異範囲」
以上の同差異範囲を持つ画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜18のいずれかに記載の立体画像情報保持物。
The "both deconvergence fusion image information" described in this specification has,
“Difference range of image information comparison that enables convergence image information”
Having at least one or more image information having the same difference range, or having the same,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding material according to any one of claims 1 to 18.
前記立体画像情報保持物が、
「情報演算」
「情報検索」
「情報受信」
「情報入力」
「情報記憶」
「情報記録」
「情報照合」
「情報制御」
「情報実行」
「情報加工」
「情報出力」
「情報再生」
「情報印刷」
「情報表示」、および、
「情報送信」の内、
「各いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる情報処理」を機能できる情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜19のいずれかに記載の立体画像情報保持物。
The stereoscopic image information holding object is
"Information calculation"
"Information retrieval"
"Information reception"
"Information input"
"Information storage"
Information recording
"Information verification"
Information control
"Information execution"
"Information processing"
"Information Output"
"Information reproduction"
"Information printing"
"Information Display", and
In "Information transmission"
At least one or more pieces of information capable of functioning “information processing consisting of any one or more, one or more various combinations, or one or more various superpositions”, or can be provided with the same. thing,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding material according to any one of claims 1 to 19.
前記様々な『「同種異系画像情報」同士の画像情報』が、
残像による画像情報融合効果が有効な時間内の時間差をもたして 時分割画像情報処理できる画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜20のいずれかに記載の立体画像情報保持物。
The various “image information between“ similar and different image information ””
Having at least one or more image information capable of time-division image information processing with a time difference within a time during which the image information fusion effect due to afterimage is effective,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding article according to any one of claims 1 to 20.
前記様々な融合画像情報に共通する融合可能な『「同種異系画像情報」同士の画像情報比較の「差異の画像情報」』において、
前記記載の「差異の画像情報」部分が、
『融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を 増減することができる、もしくは、同増減させられることができる差異の画像情報』、
『融合可能な該差異の範囲外での「強弱」、もしくは、同「高低」を 増減することができる、もしくは、同増減させられることができる差異の画像情報』、
『融合可能な該差異の範囲内での「強弱」、もしくは、同「高低」を ゼロにすることができる、もしくは、ゼロにさせられることができる差異の画像情報』、の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる画像情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能である、
を特徴とする請求項1〜21のいずれかに記載の立体画像情報保持物。
In "fusion image information of difference" of image information comparison between "variable image information of the same kind" that can be fused to the various fusion image information,
The above-mentioned “difference image information” part is
“Image information of differences that can be increased or decreased, or can be increased or decreased within the range of differences that can be fused,”
“Image information of differences that can be increased or decreased, or can be increased or decreased”.
“Image information of differences that can be zeroed or made zero” within the range of the difference that can be fused,
Including at least one or more image information including any one or more, one or more various combinations, or one or more various superpositions;
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or some of the actions are possible,
The three-dimensional image information holding material according to any one of claims 1 to 21.
「両形融合画像情報」
「両組融合画像情報」
「両形組融合画像情報」、および、
「両離輻輳融合画像情報」の内、
いずれか1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせを 使い分ける処理情報の
「直前」「直後」「途中」「前のいずれか」、もしくは、「後のいずれか」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせからなる位置に「同各融合が起こらない処理情報」が、可能である処理情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜22のいずれかに記載の立体画像情報保持物。
"Both shape fusion image information"
"Both group fusion image information"
“Both-form combination image information”, and
Of the "both devergence fusion image information",
Any one or more, various combinations of one or more, or processing information that uses one or more of the various overlays “just before”, “immediately”, “middle”, “any of the previous”, or “after” Within
At least one or more processing information capable of “processing information that does not cause the same fusion” is provided at a position consisting of one or more, one or more various combinations, or one or more various overlays. , Or be prepared for,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The three-dimensional image information holding article according to any one of claims 1 to 22.
請求項1〜23記載の各行為を実行処理するコンピュータ処理プログラムの内、1以上と同1以上の様々な組み合わせによる同コンピュータ処理プログラムである処理情報を、少なくとも1つ以上、備えること、もしくは、同備えさせられること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項1〜23のいずれかに記載の立体画像情報保持物。
At least one or more processing information which is the same computer processing program by various combinations of one or more and one or more of the computer processing programs for executing and processing each action according to claims 1 to 23, or Being prepared,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Alternatively, the stereoscopic image information holding object according to any one of claims 1 to 23, wherein the act can be performed in any number.
請求項1記載の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。 The image information three-dimensional processing apparatus characterized by the same features as the features of claim 1. 請求項2記載の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。 An image information three-dimensional processing apparatus having the same features as the features according to claim 2. 請求項3記載の「請求項1、2の各組み合わせを除く」が、
「請求項25、26の各組み合わせを除く」に置き換わっている該請求項の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。
“Excluding each combination of claims 1 and 2” according to claim 3,
An image information three-dimensional processing apparatus having the same feature as that of the claim replaced with “excluding each combination of claims 25 and 26”.
請求項4記載の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。 The image information three-dimensional processing apparatus characterized by the same features as the features of claim 4. 請求項5記載の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。 An image information three-dimensional processing apparatus having the same features as the features according to claim 5. 請求項6記載の「請求項4、5の各組み合わせを除く」が、
「請求項28、29の各組み合わせを除く」に置き換わっている該請求項の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。
“Excluding each combination of claims 4 and 5” according to claim 6,
An image information three-dimensional processing apparatus having the same feature as that of the claim replaced with “excluding each combination of claims 28 and 29”.
請求項7記載の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。 The image information three-dimensional processing apparatus characterized by the same features as the features of claim 7. 請求項8記載の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。 The image information three-dimensional processing apparatus characterized by the same features as the features of claim 8. 請求項9記載の「請求項7、8の各組み合わせを除く」が、
「請求項31、32の各組み合わせを除く」に置き換わっている該請求項の特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。
"Excluding each combination of claims 7 and 8" according to claim 9,
An image information three-dimensional processing apparatus having the same feature as that of the claim replaced with “excluding each combination of claims 31 and 32”.
請求項10記載の「請求項1記載の」、「請求項2記載の」、「請求項3記載の」、
「請求項4記載の」、「請求項5記載の」、「請求項6記載の」、
「請求項7記載の」、「請求項8記載の」、および、「請求項9記載の」が、
各々相対応する
「請求項25記載の」、「請求項26記載の」、「請求項27記載の」、
「請求項28記載の」、「請求項29記載の」、「請求項30記載の」、
「請求項31記載の」、「請求項32記載の」、および、「請求項33記載の」に置き換わっている該請求項の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜33のいずれかに記載の 画像情報立体化処理装置。
Claim 10 according to claim 1, claim 2 according to claim 2, claim 3 according to claim 10,
“Claim 4”, “Claim 5”, “Claim 6”,
“Claim 7”, “Claim 8”, and “Claim 9”
Corresponding to each other
“Claim 25”, “Claim 26”, “Claim 27”,
“Claim 28”, “Claim 29”, “Claim 30”,
Claims 25-33, which are the same as the features of this claim, which are replaced by "as described in claim 31", "as described in claim 32" and "as described in claim 33" The image information three-dimensional processing apparatus according to any one of the above.
請求項11記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜34のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing apparatus according to any one of claims 25 to 34, wherein the same feature as that of claim 11 is provided. 請求項12記載の「請求項11記載の」が、
「請求項35記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。
The claim 12 according to claim 12 is
An image information three-dimensional processing apparatus having the same features as the features of the claim replaced with “described in claim 35”.
請求項13記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜36のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing apparatus according to any one of claims 25 to 36, wherein the same feature as that of claim 13 is provided. 請求項14記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜37のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing apparatus according to any one of claims 25 to 37, wherein the same feature as that of claim 14 is provided. 請求項15記載の「請求項14記載の」が、
「請求項38記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする 画像情報立体化処理装置。
The claim 15 according to claim 15 is
An image information three-dimensional processing apparatus having the same features as the features of the claims that are replaced with "described in claim 38".
請求項16記載の「請求項14記載の」が、
「請求項38記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項25〜39のいずれかに記載の 画像情報立体化処理装置。
The claim 16 according to claim 16 is
40. The image information three-dimensional processing device according to any one of claims 25 to 39, wherein the same feature as that of the claim is replaced with "described in claim 38".
請求項17記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜40のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing device according to any one of claims 25 to 40, wherein the same feature as that of claim 17 is provided. 請求項18記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜41のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing apparatus according to any one of claims 25 to 41, wherein the same feature as that of claim 18 is provided. 請求項19記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜42のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing device according to any one of claims 25 to 42, wherein the same feature as the feature of claim 19 is provided. 請求項20記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜43のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing apparatus according to any one of claims 25 to 43, wherein the same feature as the feature of claim 20 is provided. 請求項21記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜44のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing apparatus according to any one of claims 25 to 44, wherein the same features as the features of claim 21 are the features of claims. 請求項22記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜45のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing apparatus according to any one of claims 25 to 45, wherein the same feature as that of claim 22 is provided. 請求項23記載の特徴と 同じ特徴を 本請求項の特徴とする請求項25〜46のいずれかに記載の 画像情報立体化処理装置。 The image information three-dimensional processing apparatus according to any one of claims 25 to 46, wherein the same feature as that of claim 23 is provided. 請求項24記載の「請求項1〜23記載の」が、
「請求項25〜47記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項25〜47のいずれかに記載の 画像情報立体化処理装置。
Claim 24 "claims 1 to 23"
The image information three-dimensional processing apparatus according to any one of claims 25 to 47, wherein the same feature as that of the claim is replaced with "described in claim 25 to 47".
画像情報表示部内に設置された 画像情報信号用 1画素部内の1ドット部、もしくは、1セル部から、「可視自発光体類(極めて簡単な例として、プラズマ類用蛍光体類・エレクトロルミネッセンス類等に代表的に見受けられる 可視自発光体類)」の 可視発光画像情報信号として発光する。
またおよび、「箱O」は、
「少なくとも1部以上が、多面体類壁、錐体類壁、球体類壁、または/および、円筒類壁で構成されている箱型」で、形成されている「箱O」で ある。
および、前記「箱O」は、同「箱O」の 少なくとも1部以上が、開口しているため、もしくは、開口していなくても 透過性があるため 結果的に、開口していることと 近似値内の効果を持つ 各開口部が、少なくとも1部以上存在している。
および、前記開口部で、可視発光画像情報信号が、入光してくる開口部を 前方開口部と呼称する前記「箱O」で ある。
および、「箱O」は、
前記1ドット部、もしくは、1セル部に、少なくとも1部以上が、対応するように設置され、および、前記1ドット部、もしくは、1セル部各内の可視自発光体類の少なくとも1部以上、もしくは、全部の 後方方向の いずれかで、本明細書記載の本請求項対応の発明の効果が、認められる範囲内に、設置されている「箱O」である。
つまり、「箱O」は、
前記1ドット部、もしくは、1セル部から、後方へ、抜け出た、少なくも1部以上の可視発光画像情報信号が、
この「箱O」の前方開口部から、入光でき、および、前記入光した前記可視発光画像情報信号は、同「箱O」の前方開口部から、逆に、出光でき、
前記1ドット部、もしくは、1セル部へ、抜け出て行くような「箱O」である。
および、前記「箱O」の内側面、もしくは、内外両側面の各1部以上は、鏡類面、鏡類的仕上げ面、もしくは、光が反射できる反射素材類の面となっている。
従って、「箱O」は、
前記「箱O」の内側面が、鏡類面、鏡類的仕上げ面、もしくは、光が反射できる反射素材類の面となっているため、
前記「箱O」の前方開口部から入光し、同前方開口部から逆方向へ 再度 抜け出て行く 前記可視発光画像情報信号は、その1部、多部、および、全部の内、1以上と その1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも1回以上の反射を体験した 前記可視発光画像情報信号に、偏向して、該前方開口部から前方外部へ、抜け出て行くことになる。
以上の条件下において、
前記可視発光画像情報信号の内、後方へ抜け出た 少なくも1部以上の可視発光画像情報信号が、前記「箱O」の前記前方開口部を、入光した 同可視発光画像情報信号は、前記「箱O」内部で、少なくとも1回以上 反射された 反射光信号となって、再び前記前方開口部から 出光し、前記1ドット部、もしくは、1セル部を 逆通過後、前方へ進み出る可視発光画像情報信号として、前記画像情報表示部の 前方空間に現れでる画像情報を、少なくとも1つ以上、持っていること、もしくは、同もたされていること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項25〜48のいずれかに記載の画像情報立体化処理装置。
For image information signals installed in the image information display section From one dot section or one cell section in one pixel section, “visible self-luminous substances (for example, phosphors for plasmas and electroluminescence classes) It emits light as a visible light-emission image information signal of “Visible light-emitting bodies that can be seen typically.
Also, “Box O”
A “box O” formed of “a box shape in which at least one part is composed of a polyhedral wall, a cone wall, a sphere wall, and / or a cylindrical wall”.
In addition, the “box O” is open because at least one part of the “box O” is open or is permeable even if it is not open. There are at least one or more openings each having an effect within the approximate value.
In addition, the “box O” is referred to as a front opening, which is an opening through which the visible light emission image information signal enters the opening.
And "Box O"
At least 1 part or more is installed in the 1 dot part or 1 cell part so as to correspond, and at least 1 part or more of visible self-luminous substances in each of the 1 dot part or 1 cell part Or “box O” installed within a range where the effect of the invention corresponding to the claims described in the present specification is recognized in any of the rearward directions.
In other words, “Box O”
At least one or more visible light emitting image information signals that have escaped backward from the one dot portion or one cell portion,
Light can be incident from the front opening of the “box O”, and the incident visible light emission image information signal can be emitted from the front opening of the “box O”.
A “box O” that goes out to the 1-dot portion or 1-cell portion.
In addition, at least one part of the inner side surface or both inner and outer side surfaces of the “box O” is a mirror surface, a mirror-finished surface, or a surface of a reflective material that can reflect light.
Therefore, “Box O” is
Since the inner surface of the “box O” is a mirror surface, a mirror-finished surface, or a reflective material surface that can reflect light,
The visible light emission image information signal enters the front opening of the “box O” and exits again in the opposite direction from the front opening. The visible light emission image information signal includes one or more of them, and one or more of them. One or more various combinations, or at least one reflection due to the same superposition, experienced deflection of the visible light emission image information signal, and escaped from the front opening to the front outside. .
Under the above conditions,
Among the visible light emission image information signals, at least one part of the visible light emission image information signal that has escaped rearward has entered the front opening of the “box O”. Visible light emission which becomes a reflected light signal reflected at least once inside “Box O”, emerges again from the front opening, passes forward through the one dot portion or one cell portion, and proceeds forward. Having at least one or more image information appearing in the front space of the image information display unit as an image information signal, or having the same
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The image information three-dimensional processing apparatus according to any one of claims 25 to 48, wherein:
請求項49記載の特徴と同じ特徴を持つ
「両形融合画像情報」
「両組融合画像情報」
「両形組融合画像情報」、および、
「両離輻輳融合画像情報」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報からなる画像情報立体化処理装置。
[Bilateral fusion image information] having the same characteristics as those of claim 49
"Both group fusion image information"
“Both-form combination image information”, and
Of the "both devergence fusion image information",
An image information three-dimensional processing apparatus comprising one or more, one or more various combinations, or one or more various superimposed image information.
少なくとも1部以上が、表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面で、構成されている画像情報表示部上の、外光反射が起きる 前面表示面において、
前記各外光反射表示面上の1個の凸が、前記請求項49記載の「1ドット部、もしくは、1セル部」に対して、「数ドット部単位以下、もしくは、数セル部単位以下」の
「微細な同単位以下の 凸状態仕上げ面」、
「微細な同単位以下の 凸レンズ状態仕上げ面」、および、
「液晶類モニター画面の 視野角を広げる働きを持つ透過性板状態物質類、もしくは、同透過性膜状態物質類(=液晶類モニター画面で使用されている 内部で偏向された可視画像情報信号光を 外部空間に、上下少なくとも 左右いずれかに分散放出する働きを持つシート類、もしくは、同フィルム類)が、使用されている仕上げ面」、
の各1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、少なくとも1部以上の仕上げ面から構成されていることを特徴とする請求項25〜50のいずれかに記載の画像情報立体化処理装置。
At least one part is composed of the display screen protective function combined use glass surface, the display screen protection function combined use transmissive plate state material surface, or the display screen protection function combined use permeable membrane state material surface. On the front display surface where external light reflection occurs on the image information display section,
One convexity on each of the external light reflecting display surfaces is “a few dot part unit or less, or a few cell part unit or less” with respect to “one dot part or one cell part” according to claim 49. "Fine convex surface of the same unit or less",
"Fine convex lens surface with the same unit or less", and
“Transparent plate state substances that work to widen the viewing angle of liquid crystal monitor screens, or the same transparent film state substances (= internally deflected visible image information signal light used in liquid crystal monitor screens) Finished surface in which sheets or films having the function of dispersing and releasing in the outer space at least up and down, left and right are used ”,
51. The structure according to claim 25, comprising at least one part of a finished surface in each of one or more of the above, various combinations of the same one or more, or various superpositions of the same one or more. The image information three-dimensional processing apparatus described in 1.
画像情報表示部内の「可視自発光体類{極めて簡単な例として、SED(表面電界ディスプレイ)類用蛍光体類、プラズマ類用蛍光体類、エレクトロルミネッセンス類、および、液晶類用バックライト類等に、代表的に見受けられる可視自発光体類}」から放たれた可視発光情報信号、もしくは、可視発光画像情報信号が、画像情報信号用 1画素部内の1ドット部、もしくは、1セル部を 通過 後、最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面では、可視発光画像情報信号として、前方空間へ放射される。
またおよび、「囲壁P」は、
「少なくとも1部以上が、多面体類壁、錐体類壁、球体類壁、または/および、円筒類壁で構成されている囲み壁」で 囲まれている「囲壁P」で ある。
および、前記「囲壁P」は、囲まれていないため、もしくは、囲まれていても透過性があるため 結果的に、開口していることと近似値内の効果を持つ 各開口部が、少なくとも2部以上存在している。
および、前記開口部で、可視発光情報信号、もしくは、可視発光画像情報信号が、入光してくる開口部を 後方開口部と呼称し、同可視発光情報信号、もしくは、同可視発光画像情報信号が、出光する開口部を 前方開口部と 呼称する前記「囲壁P」で ある。
および、前記「囲壁P」は、
前記1ドット部、もしくは、1セル部に 少なくとも1部以上が、対応するように設置され、および、前記1ドット部、もしくは、1セル部 に対応する可視自発光体類の少なくとも1部以上、もしくは、全部の 前方方向の いずれかで、本明細書記載の本請求項対応の発明の効果が、認められる範囲内に、設置されている。
つまり、「囲壁P」は、
前記1ドット部、もしくは、1セル部に対応する可視自発光体類から、前方へ、出光した、可視発光情報信号、もしくは、可視発光画像情報信号が、この「囲壁P」の後方開口部から、入光し、同「囲壁P」の前方開口部から、前方外部へと、同各信号が、抜け出て行くような「囲壁P」である。
および、前記「囲壁P」の内側面、もしくは、内外両側面の各1部以上は、鏡類面、鏡類的仕上げ面、もしくは、光が反射できる反射素材類の面となっている。
従って、前記「囲壁P」は、
「囲壁P」の内側面が、鏡類面、鏡類的仕上げ面、もしくは、光が反射できる反射素材類の面となっているため、
前記「囲壁P」の後方開口部から入光し、前方開口部へ抜けて行く 前記可視発光情報信号、もしくは、可視発光画像情報信号は、
その1部、多部、および、全部の内、1以上と その1以上の様々な組み合わせ、もしくは、同重ね合わせによる 少なくとも1回以上の反射を体験した
前記可視発光情報信号、もしくは、可視発光画像情報信号に、偏向して該前方開口部から前方外部へ、抜け出て行くことになる。
以上の条件下において、
前記可視自発光体類から、前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面までの 各いずれかの間の 少なくとも1ヶ所以上の位置に、
前記「囲壁P」が 設置されることにより、
前記最前列の表示画面保護機能兼用ガラス類面、同表示画面保護機能兼用透過性板状態物質類面、もしくは、同表示画面保護機能兼用透過性膜状態物質類面から、
前方空間へ放射される可視発光画像情報信号が、前記反射体験で偏向された
前記可視発光情報信号、もしくは、可視発光画像情報信号の 少なくともいずれか から 構成された画像情報を、少なくとも1つ以上、持っていること、もしくは、同持たされていること、
または、前記行為が いくらかでも存在していること、
もしくは、前記行為が いくらかでも予定できること、
もしくは、前記行為が いくらかでも可能であること
を特徴とする請求項25〜51の いずれかに記載の画像情報立体化処理装置。
“Visible self-luminous substances {in the image information display section {as a very simple example, fluorescent substances for SED (surface electric field display)", fluorescent substances for plasmas, electroluminescence, backlights for liquid crystals, etc. In addition, a visible light emission information signal or a visible light emission image information signal emitted from a visible self-luminous body that can be seen as a typical example is a 1 dot portion or 1 cell portion in one pixel portion for image information signal. Visible light emitting image information in the front row of the display screen protective function combined use glass surface, the same display screen protection function combined use transmissive plate state material surface, or the same display screen protection function combined use permeable membrane state material surface after passing. As a signal, it is radiated to the front space.
Also, the “enclosure P” is
The “enclosure wall P” is surrounded by “enclosure wall composed of at least one part polyhedral body wall, cone body wall, sphere body wall, and / or cylindrical wall”.
And, since the “enclosure P” is not surrounded or is transparent even if it is enclosed, as a result, at least each opening having an effect within the approximate value is open. There are two or more parts.
In addition, the opening where the visible light emission information signal or the visible light emission image information signal enters the opening is referred to as a rear opening, and the visible light emission information signal or the visible light emission image information signal. Is the “enclosure P” in which the opening that emits light is called the front opening.
And, the “enclosure P” is
At least 1 part or more is installed to correspond to the 1 dot part or 1 cell part, and at least 1 part or more of visible self-luminous substances corresponding to the 1 dot part or 1 cell part, Alternatively, in any of the forward directions, the invention according to the present invention described in this specification is installed within the range where the effect is recognized.
In other words, “enclosure P” is
The visible light emission information signal or the visible light emission image information signal emitted forward from the visible self-luminous body corresponding to the 1-dot portion or 1-cell portion is transmitted from the rear opening portion of the “enclosure P”. The “enclosure P” is such that each signal exits from the front opening of the “enclosure P” to the front outside.
In addition, at least one part of the inner side surface or both inner and outer side surfaces of the “enclosure P” is a mirror surface, a mirror-finished surface, or a surface of a reflective material that can reflect light.
Therefore, the “enclosure P” is
Since the inner surface of the “enclosure P” is a mirror surface, a mirror-finished surface, or a reflective material surface that can reflect light,
The visible light emission information signal or the visible light emission image information signal that enters from the rear opening of the “enclosure P” and exits to the front opening is:
The visible light emission information signal or the visible light emission image which experienced at least one reflection by one or more and one or more and one or more various combinations or the same superposition among the one part, many parts and all The information signal is deflected to escape from the front opening to the front outside.
Under the above conditions,
From the visible self-luminous materials, the display screen protective function combined use glass surface of the front row, the display screen protection function combined use transmissive plate state material surface, or the display screen protection function combined use permeable membrane state material surface At least one position between any of the
By installing the “enclosure P”,
From the display screen protective function combined use glass surface of the front row, the display screen protection function combined use permeable plate state material surface, or the display screen protection function combined use permeable membrane state material surface,
Visible light emission image information signal radiated to the front space was deflected in the reflection experience
Having at least one or more image information composed of at least one of the visible light emission information signal or the visible light emission image information signal,
Or that there is some such behavior,
Or you can schedule any of the above actions,
Or, the act can be done in any way
The image information three-dimensional processing apparatus according to any one of claims 25 to 51, wherein:
請求項52記載の特徴と同じ特徴を持つ
「両形融合画像情報」
「両組融合画像情報」
「両形組融合画像情報」、および、
「両離輻輳融合画像情報」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせ画像情報からなる画像情報立体化処理装置。
53. “Bilateral fusion image information” having the same characteristics as described in claim 52
"Both group fusion image information"
“Both-form combination image information”, and
Of the "both devergence fusion image information",
An image information three-dimensional processing apparatus comprising one or more, one or more various combinations, or one or more various superimposed image information.
請求項49、もしくは、請求項52記載の
「前記1ドット部、もしくは、1セル部に少なくとも1部以上が、対応するように設置」
の記載部分が、
「前記1ドット部、もしくは、1セル部を含んだ1以上のいずれかのドット部、もしくは、
同1以上のいずれかのセル部に 少なくとも1部以上が、対応するように設置」
に変更記載されていること
を特徴とする請求項25〜53のいずれかに記載の画像情報立体化処理装置。
53. The “installed so that at least one part corresponds to the one dot part or one cell part” according to claim 49 or claim 52
The description part of
“The one dot portion, or any one or more dot portions including one cell portion, or
Install so that at least one part corresponds to any one of the cell parts above. "
54. The image information three-dimensional processing apparatus according to claim 25, wherein the three-dimensional image information processing apparatus is modified.
請求項49、もしくは、請求項52記載の
「前記1ドット部、もしくは、1セル部に少なくとも1部以上が、対応するように設置」
の記載部分が、
「前記1画素部を含んだ1以上のいずれかの画素部に少なくとも1部以上が、対応するよ
うに設置」
に変更記載されていること
を特徴とする請求項25〜54のいずれかに記載の画像情報立体化処理装置。
53. The “installed so that at least one part corresponds to the one dot part or one cell part” according to claim 49 or claim 52
The description part of
“Install at least one or more pixel units corresponding to one or more pixel units including the one pixel unit”
55. The image information three-dimensional processing apparatus according to any one of claims 25 to 54, wherein the three-dimensional image information processing apparatus is modified.
請求項49記載の「箱O」、もしくは、請求項52記載の「囲壁P」は、
「箱O」、もしくは、「囲壁P」の少なくとも1部以上、もしくは、全体が、近似値内の方向へ、もしくは、近似値内の距離だけ 傾けられている箇所が、少なくとも1ヶ所以上 設置されていること
を特徴とする請求項25〜55のいずれかに記載の画像情報立体化処理装置。
The “box O” according to claim 49 or the “enclosure P” according to claim 52 is:
At least one part or more of “box O” or “enclosure P” or at least one place where the whole is inclined in the direction within the approximate value or by the distance within the approximate value is installed. The image information three-dimensional processing apparatus according to any one of claims 25 to 55, wherein:
請求項56記載の「近似値内の方向」が、
「少なくとも1部以上の部分が、近似値内とは、異なる方向」
「全く異なる方向」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、記載されていること
を特徴とする請求項25〜56のいずれかに記載の画像情報立体化処理装置。
The "direction within the approximate value" according to claim 56 is:
"At least one part is in a different direction from the approximate value"
Of the "totally different directions"
57. The image information three-dimensional processing apparatus according to claim 25, which is described in one or more, one or more various combinations, or one or more various superpositions.
請求項56記載の「近似値内の距離」が、
「少なくとも1部以上の部分が、近似値内とは、異なる距離」
「全く異なる距離」の内、
1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、記載されていること
を特徴とする請求項25〜57のいずれかに記載の画像情報立体化処理装置。
The “distance within the approximate value” according to claim 56 is:
"At least one part is different from the approximate value"
Within a “totally different distance”
The image information three-dimensional processing apparatus according to any one of claims 25 to 57, which is described in one or more, one or more various combinations, or one or more various superpositions.
請求項49、もしくは、請求項52記載の
『「画像情報表示部内」のいずれか』
『「1ドット部、もしくは、1セル部」の 内部、もしくは、隣接外部の 各いずれか』
『「箱O」、もしくは、「囲壁P」の各開口部の いずれか』、
『「箱O」、もしくは、「囲壁P」の各内部の いずれか』、もしくは、
『前記各部相互に挟まれた間の いずれか』
の内、少なくともいずれか1箇所以上に、
「カラーフィルター類」
「カラーフィルター類と 近似値内の機能を 保持している濾過光性塗料類」
「前記同機能を 保持している濾過光性膜類」、および、
「前記同機能を 保持している濾過光性透過物質類」
の 各少なくとも いずれかの1部以上、もしくは、全部の内、1以上、同1以上の様々な組み合わせ、もしくは、同1以上の様々な重ね合わせで、設置されていること
を特徴とする請求項25〜58のいずれかに記載の画像情報立体化処理装置。
The “any one of“ in the image information display section ”according to claim 49 or claim 52
“Either“ one dot part or one cell part ”, or each adjacent outside”
"Either of each opening of" Box O "or" Enclosure P "",
“Either“ box O ”or“ enclosure P ”inside”, or
"Any one between the above parts"
Of which at least one of
"Color filters"
“Filtered light paints that maintain functions within the approximate range with color filters”
“Filtered optical membranes retaining the same function”, and
“Filtered light-transmitting substances having the same function”
1 or more of at least one of each of the above, or all, one or more, various combinations of the same one or more, or one or more of various superpositions. The image information three-dimensional processing apparatus according to any one of 25 to 58.
「請求項49記載」の「箱O」、もしくは/および、「請求項52記載」の「囲壁P」の各内側側壁が、同内側側壁面の少なくとも3面以上から構成されている「箱O」、もしくは/および、「囲壁P」であること
を特徴とする請求項25〜59のいずれかに記載の画像情報立体化処理装置。
“Box O” according to “Claim 49” and / or “Inner Wall P” according to “Claim 52”, each inner side wall is composed of at least three of the inner side wall surfaces. And / or “enclosure P”. The image information three-dimensional processing apparatus according to claim 25.
請求項49、もしくは、請求項52記載の
「1画素内の1ドット部、もしくは、1セル部」が、
同部内、もしくは、同部に対応する同部外可視自発光体類を 直接的、もしくは、間接的に同部内で発光、もしくは、同部内を透過
(極めて簡単な代表的例として、プラズマ類であれば、蛍光体発光による同部内発光、および、同液晶類であれば、同部外バックライト類光を同部内液晶体印荷偏向による透過光)させるための電極(プラス極とマイナス極)の計2極が、同部内、もしくは、同部外に、少なくとも2極以上設置されている「1画素内の1ドット部、もしくは、1セル部」であること
を特徴とする請求項25〜60のいずれかに記載の画像情報立体化処理装置。
The "one dot portion or one cell portion in one pixel" according to claim 49 or claim 52,
Visible self-luminous substances outside the same part or corresponding to the same part either directly or indirectly emit light within the same part, or pass through the same part (as a very simple representative example, with plasmas) If there is an electrode for emitting light in the same part by phosphor emission, and in the case of the same liquid crystal, an electrode for transmitting back light from the same part in the same part (transmitted light due to deflection of liquid crystal in the same part) (positive and negative poles) 26. The total two poles are “one dot part or one cell part in one pixel” disposed at least two or more inside or outside the part. 60. The image information three-dimensional processing apparatus according to any one of 60.
請求項49、もしくは、請求項52記載の
「1画素部」の記載部分が、
「1以上のいずれかのドット部、もしくは、同1以上のいずれかのセル部からなる
1画素部」に変更記載されていること
を特徴とする請求項25〜61のいずれかに記載の画像情報立体化処理装置。
The description part of "one pixel part" according to claim 49 or claim 52,
The image according to any one of claims 25 to 61, wherein the image is changed and described as "one pixel portion including one or more dot portions or one or more cell portions". Information three-dimensional processing device.
請求項1記載の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。 The three-dimensional image information processing apparatus characterized by the same features as the features of claim 1. 請求項2記載の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。 The three-dimensional image information processing apparatus characterized by the same features as the features of claim 2. 請求項3記載の「請求項1、2の各組み合わせを除く」が、
「請求項63、64の各組み合わせを除く」に置き換わっている該請求項の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。
“Excluding each combination of claims 1 and 2” according to claim 3,
The three-dimensional image information processing apparatus characterized in that the same feature as that of the claim is replaced by “excluding each combination of claims 63 and 64”.
請求項4記載の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。 The three-dimensional image information processing apparatus characterized by the same features as the features of claim 4. 請求項5記載の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。 A three-dimensional image information processing apparatus having the same features as the features of claim 5. 請求項6記載の「請求項4、5の各組み合わせを除く」が、
「請求項66、67の各組み合わせを除く」に置き換わっている該請求項の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。
“Excluding each combination of claims 4 and 5” according to claim 6,
The three-dimensional image information processing apparatus characterized by the same features as the features of the claims that are replaced with "excluding each combination of claims 66 and 67".
請求項7記載の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。 The three-dimensional image information processing apparatus characterized by the same features as the features of claim 7. 請求項8記載の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。 The three-dimensional image information processing apparatus characterized by the same features as the features of claim 8. 請求項9記載の「請求項7、8の各組み合わせを除く」が、
「請求項69、70の各組み合わせを除く」に置き換わっている該請求項の特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。
"Excluding each combination of claims 7 and 8" according to claim 9,
The three-dimensional image information processing apparatus characterized in that the same feature as that of the claim is replaced by “excluding each combination of claims 69 and 70”.
請求項10記載の「請求項1記載の」、「請求項2記載の」、「請求項3記載の」、
「請求項4記載の」、「請求項5記載の」、「請求項6記載の」、
「請求項7記載の」、「請求項8記載の」、および、「請求項9記載の」が、
各々相対応する
「請求項63記載の」、「請求項64記載の」、「請求項65記載の」、
「請求項66記載の」、「請求項67記載の」、「請求項68記載の」、
「請求項69記載の」、「請求項70記載の」、および、「請求項71記載の」に置き換わっている該請求項の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜71のいずれかに記載の 立体画像情報処理装置。
Claim 10 according to claim 1, claim 2 according to claim 2, claim 3 according to claim 10,
“Claim 4”, “Claim 5”, “Claim 6”,
“Claim 7”, “Claim 8”, and “Claim 9”
Corresponding to each other
According to claim 63, according to claim 64, according to claim 65,
According to claim 66, according to claim 67, according to claim 68,
Claims 63-71 characterized by the same features as the claims that are replaced by "as described in claim 69", "as described in claim 70" and "as described in claim 71" The three-dimensional image information processing apparatus according to any one of the above.
請求項11記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜72のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 72, wherein the same feature as the feature of claim 11 is the feature of this claim. 請求項12記載の「請求項11記載の」が、
「請求項73記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。
The claim 12 according to claim 12 is
The three-dimensional image information processing apparatus characterized in that the same feature as that of the claim is replaced with "described in claim 73".
請求項13記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜74のいずれかに記載の 立体画像情報処理装置。 The three-dimensional image information processing device according to any one of claims 63 to 74, wherein the same feature as that of claim 13 is provided. 請求項14記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜75のいずれかに記載の 立体画像情報処理装置。 The three-dimensional image information processing device according to any one of claims 63 to 75, wherein the same feature as the feature of claim 14 is provided. 請求項15記載の「請求項14記載の」が、
「請求項76記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。
The claim 15 according to claim 15 is
The three-dimensional image information processing apparatus characterized in that the same feature as that of the claim is replaced with "described in claim 76".
請求項16記載の「請求項14記載の」が、
「請求項76記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜77のいずれかに記載の 立体画像情報処理装置。
The claim 16 according to claim 16 is
78. The three-dimensional image information processing device according to any one of claims 63 to 77, wherein the same feature as that of the claim is replaced with "described in claim 76".
請求項17記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜78のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 78, wherein the same feature as the feature of claim 17 is the feature of this claim. 請求項18記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜79のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 79, wherein the same feature as the feature of claim 18 is the feature of this claim. 請求項19記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜80のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 80, wherein the same feature as the feature of claim 19 is provided. 請求項20記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜81のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 81, wherein the same feature as the feature of claim 20 is the feature of this claim. 請求項21記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜82のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 82, wherein the same feature as the feature of claim 21 is the feature of this claim. 請求項22記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜83のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 83, wherein the same feature as that of claim 22 is provided. 請求項23記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜84のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 84, wherein the same feature as the feature of claim 23 is provided. 請求項24記載の「請求項1〜23記載の」が、
「請求項63〜85記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜85のいずれかに記載の 立体画像情報処理装置。
Claim 24 "claims 1 to 23"
The three-dimensional image information processing apparatus according to any one of claims 63 to 85, wherein the same feature as that of the claim is replaced with "described in claims 63 to 85".
請求項49記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜86のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 86, wherein the same feature as the feature of claim 49 is the feature of this claim. 請求項50記載の「請求項49記載の」が、
「請求項87記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。
According to claim 50, "in accordance with claim 49"
A three-dimensional image information processing apparatus characterized in that the same features as the features of the claims are replaced with "described in claim 87".
請求項51記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜88のいずれかに記載の 立体画像情報処理装置。 The three-dimensional image information processing device according to any one of claims 63 to 88, wherein the same feature as that of claim 51 is provided. 請求項52記載の特徴と 同じ特徴を 本請求項の特徴とする請求項63〜89のいずれかに記載の 立体画像情報処理装置。 The stereoscopic image information processing device according to any one of claims 63 to 89, wherein the same feature as the feature of claim 52 is the feature of this claim. 請求項53記載の「請求項52記載の」が、
「請求項90記載の」に置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする 立体画像情報処理装置。
According to claim 53, "in accordance with claim 52"
The three-dimensional image information processing apparatus characterized in that the same feature as that of the claim is replaced with "described in claim 90".
請求項54記載の「請求項49、もしくは、請求項52記載の」が、
「請求項87、もしくは、請求項90記載の」に
置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜91のいずれかに記載の 立体画像情報処理装置。
According to claim 54, "claim 49 or claim 52"
92. The three-dimensional image information processing device according to any one of claims 63 to 91, wherein the same feature as that of the claim is replaced with "claim 87 or claim 90".
請求項55記載の「請求項49、もしくは、請求項52記載の」が、
「請求項87、もしくは、請求項90記載の」に
置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜92のいずれかに記載の 立体画像情報処理装置。
According to claim 55, "claim 49 or claim 52"
93. The three-dimensional image information processing device according to any one of claims 63 to 92, wherein the same feature as that of the claim is replaced by "claim 87 or claim 90".
請求項56記載の
『請求項49記載の「箱O」、もしくは、請求項52記載の「囲壁P」は』が、
『請求項87記載の「箱O」、もしくは、請求項90記載の「囲壁P」は』に
置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜93のいずれかに記載の 立体画像情報処理装置。
The "box O" according to claim 49 or the "enclosure wall P" according to claim 52 is
The same feature as that of the claim, which is replaced by “the“ box O ”of claim 87 or“ enclosure P ”of claim 90” is the features of claims 63 to 93 The stereoscopic image information processing apparatus according to any one of the above.
請求項57記載の「請求項56記載の」が、
「請求項94記載の」に
置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜94のいずれかに記載の 立体画像情報処理装置。
According to claim 57, "in accordance with claim 56"
95. The three-dimensional image information processing device according to any one of claims 63 to 94, wherein the same feature as that of the claim is replaced with "described in claim 94".
請求項58記載の「請求項56記載の」が、
「請求項94記載の」に
置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜95のいずれかに記載の 立体画像情報処理装置。
According to claim 58, "in accordance with claim 56"
96. The three-dimensional image information processing device according to any one of claims 63 to 95, wherein the same feature as that of the claim is replaced with "described in claim 94".
請求項59記載の「請求項49、もしくは、請求項52記載の」が、
「請求項87、もしくは、請求項90記載の」に
置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜96のいずれかに記載の 立体画像情報処理装置。
According to claim 59, "claim 49 or claim 52"
96. The three-dimensional image information processing device according to any one of claims 63 to 96, wherein the same feature as that of the claim is replaced with "claim 87 or claim 90".
請求項60記載の「請求項49記載」と「請求項52記載」が、
各々相対応する
「請求項87記載」と「請求項90記載」に
置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜97のいずれかに記載の 立体画像情報処理装置。
"Claim 49" and "Claim 52" according to claim 60
Corresponding to each other
The three-dimensional image information processing apparatus according to any one of claims 63 to 97, wherein the same feature as that of the claim is replaced with "described in claim 87" and "described in claim 90".
請求項61記載の「請求項49、もしくは、請求項52記載の」が、
「請求項87、もしくは、請求項90記載の」に
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜98のいずれかに記載の 立体画像情報処理装置。
The claim 61 according to claim 61 or claim 52 is
The three-dimensional image information processing device according to any one of claims 63 to 98, wherein the same feature as that described in claim 87 or claim 90 is provided.
請求項62記載の「請求項49、もしくは、請求項52記載の」が、
「請求項87、もしくは、請求項90記載の」に
置き換わっている該請求項の
特徴と 同じ特徴を 本請求項の特徴とする請求項63〜99のいずれかに記載の 立体画像情報処理装置。

According to claim 62, "claim 49 or claim 52"
The three-dimensional image information processing device according to any one of claims 63 to 99, wherein the same feature as that of the claim is replaced with "claim 87 or claim 90".

JP2006031345A 2005-02-14 2006-02-08 “Method for generating 5-sensory three-dimensional information processing related objects whose plane image information is imminent” with spatial information related objects Expired - Fee Related JP5360340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006031345A JP5360340B2 (en) 2005-02-14 2006-02-08 “Method for generating 5-sensory three-dimensional information processing related objects whose plane image information is imminent” with spatial information related objects

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005035458 2005-02-14
JP2005035458 2005-02-14
JP2006031345A JP5360340B2 (en) 2005-02-14 2006-02-08 “Method for generating 5-sensory three-dimensional information processing related objects whose plane image information is imminent” with spatial information related objects

Publications (2)

Publication Number Publication Date
JP2006254424A true JP2006254424A (en) 2006-09-21
JP5360340B2 JP5360340B2 (en) 2013-12-04

Family

ID=37094364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006031345A Expired - Fee Related JP5360340B2 (en) 2005-02-14 2006-02-08 “Method for generating 5-sensory three-dimensional information processing related objects whose plane image information is imminent” with spatial information related objects

Country Status (1)

Country Link
JP (1) JP5360340B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101535524B1 (en) * 2014-05-30 2015-07-10 대한민국 A Method Providing Material For Lie Detecting
KR101554776B1 (en) * 2012-05-11 2015-09-22 안강석 A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor
CN110414711A (en) * 2019-06-20 2019-11-05 云南省烟草农业科学研究院 A kind of tobacco production prediction technique based on season of growth rainfall
EP3597375A1 (en) * 2018-06-11 2020-01-22 Kabushiki Kaisha Toyota Jidoshokki Autonomous cart
CN114002332A (en) * 2021-09-29 2022-02-01 西安交通大学 Structural damage monitoring and early warning method and structural integrity digital twinning system
CN114003903A (en) * 2021-12-28 2022-02-01 北京微步在线科技有限公司 Network attack tracing method and device
CN114424054A (en) * 2019-06-24 2022-04-29 Sms集团有限公司 Apparatus and method for determining material properties of polycrystalline product
CN117829198A (en) * 2024-01-03 2024-04-05 南通大学 High-dimensional massive parallel attribute reduction method for guiding rough hypercube by informative

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08101469A (en) * 1993-12-17 1996-04-16 Mitsuhiro Kawasaki Object associated with processing for sublimating plane image to stereoscopic image and its production
JP2004318853A (en) * 2003-03-28 2004-11-11 Mitsuhiro Kawasaki Stereoscopic image information relative of five-sense information of planar image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08101469A (en) * 1993-12-17 1996-04-16 Mitsuhiro Kawasaki Object associated with processing for sublimating plane image to stereoscopic image and its production
JP2004318853A (en) * 2003-03-28 2004-11-11 Mitsuhiro Kawasaki Stereoscopic image information relative of five-sense information of planar image

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554776B1 (en) * 2012-05-11 2015-09-22 안강석 A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor
KR101535524B1 (en) * 2014-05-30 2015-07-10 대한민국 A Method Providing Material For Lie Detecting
EP3597375A1 (en) * 2018-06-11 2020-01-22 Kabushiki Kaisha Toyota Jidoshokki Autonomous cart
CN110414711A (en) * 2019-06-20 2019-11-05 云南省烟草农业科学研究院 A kind of tobacco production prediction technique based on season of growth rainfall
CN110414711B (en) * 2019-06-20 2023-04-07 云南省烟草农业科学研究院 Tobacco yield prediction method based on rainfall in growing season
CN114424054A (en) * 2019-06-24 2022-04-29 Sms集团有限公司 Apparatus and method for determining material properties of polycrystalline product
CN114424054B (en) * 2019-06-24 2024-03-22 Sms集团有限公司 Apparatus and method for determining material properties of polycrystalline product
CN114002332A (en) * 2021-09-29 2022-02-01 西安交通大学 Structural damage monitoring and early warning method and structural integrity digital twinning system
CN114002332B (en) * 2021-09-29 2023-07-25 西安交通大学 Structural damage monitoring and early warning method and structural integrity digital twin system
CN114003903A (en) * 2021-12-28 2022-02-01 北京微步在线科技有限公司 Network attack tracing method and device
CN114003903B (en) * 2021-12-28 2022-03-08 北京微步在线科技有限公司 Network attack tracing method and device
CN117829198A (en) * 2024-01-03 2024-04-05 南通大学 High-dimensional massive parallel attribute reduction method for guiding rough hypercube by informative

Also Published As

Publication number Publication date
JP5360340B2 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
Pomerantsev Nothing is true and everything is possible: Adventures in modern Russia
Ellard Places of the heart: The psychogeography of everyday life
O'Donnell A temporary future: the fiction of David Mitchell
Tett Anthro-vision: A new way to see in business and life
Chiang Exhalation
TW200919210A (en) Adaptive electronic design
Cashman et al. Awakening the leader within: A story of transformation
TW200926033A (en) Adaptive electronic design
AU2006335151A1 (en) Genius adaptive design
JP5360340B2 (en) “Method for generating 5-sensory three-dimensional information processing related objects whose plane image information is imminent” with spatial information related objects
Tett Anthro-vision: How anthropology can explain business and life
Kim Without You, There Is No Us: Undercover Among the Sons of North Korea's Elite
Green The Anthropocene reviewed: Essays on a human-centered planet
Padgett et al. Struck by genius: How a brain injury made me a mathematical marvel
Lightman Probable Impossibilities: Musings on Beginnings and Endings
Desjarlais et al. Dispatches from home and the field during the COVID-19 pandemic
Stephenson Some Remarks
Arrarás Selena's Secret: The Revealing Story Behind Her Tragic Death
Ong Creating Nothing: The Flying Circus Project 1996–2013
Kim Without You, There is No Us: My Secret Life Teaching the Sons of North Korea's Elite
Rainey Staying Close: Stopping the Natural Drift Toward Isolation in Marriage
Fischer At the Pivot of East and West: Ethnographic, Literary, and Filmic Arts
Jones Visual Culture in Spain and Mexico
Sorrentino Death Wish: A Novel Approach to Cinema
Pritchard Handbook of Christian Ministry: For Lay and Ordained Christians

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111116

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120104

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130820

R150 Certificate of patent or registration of utility model

Ref document number: 5360340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees