WO2023171331A1 - 半導体装置及び電子機器 - Google Patents

半導体装置及び電子機器 Download PDF

Info

Publication number
WO2023171331A1
WO2023171331A1 PCT/JP2023/005900 JP2023005900W WO2023171331A1 WO 2023171331 A1 WO2023171331 A1 WO 2023171331A1 JP 2023005900 W JP2023005900 W JP 2023005900W WO 2023171331 A1 WO2023171331 A1 WO 2023171331A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor substrate
semiconductor device
vehicle
memory element
mtj element
Prior art date
Application number
PCT/JP2023/005900
Other languages
English (en)
French (fr)
Inventor
泰夫 神田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023171331A1 publication Critical patent/WO2023171331A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10BELECTRONIC MEMORY DEVICES
    • H10B61/00Magnetic memory devices, e.g. magnetoresistive RAM [MRAM] devices
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10NELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10N50/00Galvanomagnetic devices
    • H10N50/10Magnetoresistive devices
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10NELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10N50/00Galvanomagnetic devices
    • H10N50/20Spin-polarised current-controlled devices

Definitions

  • the present disclosure relates to semiconductor devices and electronic equipment.
  • imaging devices have a three-dimensional structure constructed by bonding two semiconductor substrates.
  • a circuit including a transistor or the like is provided.
  • a semiconductor device and an electronic device that can easily form a semiconductor device with a three-dimensional structure, which has a memory element with small cell size, small circuit scale, etc. and good characteristics. do.
  • a semiconductor device including a stack of a first semiconductor substrate and a second semiconductor substrate, wherein the first semiconductor substrate responds to light from a light incident surface of the first semiconductor substrate. and a first memory element provided on a side opposite to the light entrance surface with respect to the image sensor, and the first memory element includes:
  • a semiconductor device is provided that has a stacked structure in which a magnetization fixed layer, a nonmagnetic layer, and a storage layer are stacked in this order.
  • an electronic device equipped with a semiconductor device including a stack of a first semiconductor substrate and a second semiconductor substrate, wherein the first semiconductor substrate
  • An image sensor that generates charges according to light from an incident surface, and a first memory element provided on a side opposite to the light incident surface with respect to the image sensor, and the first memory element includes:
  • An electronic device is provided that has a laminated structure in which a magnetization fixed layer, a nonmagnetic layer, and a storage layer are laminated in this order from the light incident surface side.
  • FIG. 2 is an explanatory diagram schematically showing a stacked structure of an imaging device 10a according to a comparative example.
  • FIG. 4 is an explanatory diagram schematically showing a stacked structure of an MTJ element 400a according to a comparative example.
  • FIG. 4 is an explanatory diagram schematically showing a circuit configuration of an MTJ element 400a according to a comparative example.
  • FIG. 1 is an explanatory diagram (part 1) illustrating the background that led to the creation of the embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram (Part 2) illustrating the background that led to the creation of the embodiment of the present disclosure.
  • FIG. 3 is an explanatory diagram (part 3) illustrating the background that led to the creation of the embodiment of the present disclosure.
  • FIG. 1 is an explanatory diagram (part 1) illustrating the background that led to the creation of the embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram (Part 2) illustrating the background that led to the creation of the embodiment of the present
  • FIG. 4 is an explanatory diagram (Part 4) illustrating the background that led to the creation of the embodiment of the present disclosure.
  • FIG. 1 is an explanatory diagram schematically showing a stacked structure of an imaging device 10 according to an embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram schematically showing a stacked structure of an MTJ element 400 according to an embodiment of the present disclosure.
  • FIG. 3 is a cross-sectional view (part 1) of one step in the method for manufacturing the MTJ element 400 according to the embodiment of the present disclosure.
  • FIG. 3 is a cross-sectional view (Part 2) of one step of the method for manufacturing the MTJ element 400 according to the embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (Part 3) of one step in the method for manufacturing the MTJ element 400 according to the embodiment of the present disclosure.
  • FIG. 4 is a cross-sectional view (part 4) in one step of the method for manufacturing the MTJ element 400 according to the embodiment of the present disclosure.
  • FIG. 3 is a cross-sectional view in one step of the method for manufacturing the imaging device 10 according to the embodiment of the present disclosure.
  • FIG. 7 is an explanatory diagram showing a modification of the memory area according to the embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram illustrating an example of a circuit in a memory area according to an embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram (Part 1) showing the configuration of an imaging device 10 according to a modification of the embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram (Part 2) showing the configuration of the imaging device 10 according to a modification of the embodiment of the present disclosure.
  • FIG. 7 is an explanatory diagram (part 1) showing an example of control of the imaging device 10 according to a modification of the embodiment of the present disclosure.
  • FIG. 7 is an explanatory diagram (part 2) showing a control example of the imaging device 10 according to a modification of the embodiment of the present disclosure.
  • FIG. 7 is an explanatory diagram (part 3) showing a control example of the imaging device 10 according to a modification of the embodiment of the present disclosure.
  • FIG. 3 is an explanatory diagram (part 1) showing an example of the circuit configuration of an MTJ element 400 according to a modification of the embodiment of the present disclosure.
  • FIG. 7 is an explanatory diagram (part 2) showing an example of the circuit configuration of the MTJ element 400 according to a modification of the embodiment of the present disclosure.
  • FIG. 2 is an explanatory diagram showing an example of a schematic functional configuration of a camera.
  • FIG. 1 is a block diagram showing an example of a schematic functional configuration of a smartphone.
  • FIG. 1 is a block diagram showing a configuration example of a vehicle control system.
  • FIG. 3 is a diagram showing an example of a sensing area.
  • electrical connection refers to a connection such that electricity (signals) is conducted between multiple elements. It means that.
  • electrically connected in the following description refers not only to directly and electrically connecting multiple elements, but also to indirectly and electrically connecting multiple elements via other elements. This shall also include cases where it is connected to.
  • FIG. 1 is an explanatory diagram schematically showing a stacked structure of an imaging device 10a according to a comparative example. Note that the comparative example herein refers to the imaging device 10a and the structure of its main parts, which the inventors had repeatedly studied before making the embodiments of the present disclosure.
  • the imaging device 10a is an imaging device with a three-dimensional structure configured by bonding two semiconductor substrates (a first semiconductor substrate 100a and a second semiconductor substrate 200a). . Specifically, it is assumed that the imaging device 10a is a back-illuminated imaging device in which light enters from the back surface (light incident surface) 104 side of the first semiconductor substrate 100a having a photodiode (imaging element) 300.
  • the first semiconductor substrate 100a is provided with a pixel region consisting of a plurality of image sensors 300 arranged two-dimensionally on a plane.
  • the image sensor 300 is a photodiode that can generate charges in response to light from the back surface (light incident surface) 104 of the first semiconductor substrate 100a, and is a pixel circuit made up of a plurality of pixel transistors (not shown). electrically connected to.
  • the pixel circuit is provided on the first semiconductor substrate 100a, and can read out charges generated in the photodiode 300 as a pixel signal via a transfer transistor (not shown), or can reset the photodiode 300.
  • the imaging device 10a may include a semiconductor substrate (not shown) inserted between the first semiconductor substrate 100a and the second semiconductor substrate 200a, and , the pixel circuit described above may be provided.
  • the second semiconductor substrate 200a also includes, for example, an input section, a row driving section, a timing control section, in order to control the plurality of image sensors 300 and process signals from the plurality of image sensors 300.
  • Logic circuits such as a column signal processing section, an image signal processing section, and an output section are provided.
  • the second semiconductor substrate 200a is provided with a memory area including a plurality of MTJ (Magnetic Tunnel Junction) elements (memory elements) 400a arranged two-dimensionally on a plane.
  • the memory area stores signals used in the image signal processing section and processed signals. Note that the detailed configuration of the MTJ element 400a according to the comparative example will be described later.
  • first semiconductor substrate 100a and the second semiconductor substrate 200a are bonded to each other, with the surface 102 of the first semiconductor substrate 100a and the surface 202 of the second semiconductor substrate 200a facing each other.
  • first semiconductor substrate 100a and the second semiconductor substrate 200a can be electrically connected by, for example, a through electrode (not shown).
  • the first semiconductor substrate 100a and the second semiconductor substrate 200a have connection parts 110 and 210 that electrically connect the first semiconductor substrate 100a and the second semiconductor substrate 200a.
  • the connecting parts 110 and 210 are formed of electrodes made of a conductive material, and by directly joining these connecting parts 110 and 210, the first semiconductor substrate 100a and the second semiconductor substrate 200a are connected. This enables signal input and/or output between the first semiconductor substrate 100a and the second semiconductor substrate 200a.
  • the conductive material is made of, for example, a metal material such as copper (Cu), aluminum (Al), or gold (Au).
  • FIG. 2 is an explanatory diagram schematically showing the laminated structure of an MTJ element 400a according to a comparative example. Specifically, it is an enlarged view of the MTJ element 400a in the cross-sectional view of FIG. 1, and the upper side of FIG. This becomes the front surface 202 of the semiconductor substrate 200a, and the lower side in FIG. 2 becomes the back surface 204 of the second semiconductor substrate 200a. Moreover, FIG. 3 is an explanatory diagram showing an outline of the circuit configuration of an MTJ element 400a according to a comparative example.
  • MRAM Magnetic Random Access Memory
  • MRAM Magnetic Random Access Memory
  • Such an MRAM is capable of high-speed operation, can be rewritten almost infinitely ( 1015 times or more), and has high reliability.
  • the MTJ element 400a which is a magnetic memory element of MRAM, will be explained with reference to FIGS. 2 and 3.
  • the MTJ element 400a is a magnetic memory element that stores one piece of information (1/0).
  • address wiring that is, a word line and a bit line (not shown) that are orthogonal to each other are provided, and the MTJ element 400a connects the word line and bit line near the intersection of these wirings. Connected.
  • the MTJ element 400a includes a fixed layer (magnetization fixed layer) 402 on which the magnetic moment is fixed in a predetermined direction, and a nonmagnetic layer 404 on a base layer (not shown). It has a structure in which a storage layer 406 whose magnetic moment direction is variable, and a cap layer (not shown) are sequentially laminated.
  • the MTJ element 400a has a bottom Pin structure in which the fixed layer (Pin layer) 402 is located at the bottom.
  • the fixed layer 402 it is preferable to position the fixed layer 402 at the bottom. Therefore, in the comparative example, when the surface 202 of the second semiconductor substrate 200a facing the first semiconductor substrate 100a is placed upward, the bottom layer of the MTJ element 400a is the fixed layer 402.
  • the fixed layer 402 is formed of a magnetic material including a ferromagnetic material, and the direction of the magnetic moment is fixed by high coercive force or the like.
  • the nonmagnetic layer 404 is formed from various nonmagnetic materials such as magnesium oxide (MgO), and is provided between the fixed layer 402 and the storage layer 406.
  • the storage layer 406 is formed of a magnetic material containing a ferromagnetic material, and the direction of the magnetic moment changes depending on the information to be stored. Further, the base layer and the cap layer function as an electrode, a crystal orientation control film, a protective film, and the like.
  • the resistance value of the entire MTJ element 400a is changed due to the difference in the direction of the magnetic moment of the fixed layer 402. changes. Specifically, when the directions of the magnetic moments of the pinned layer 402 and the storage layer 406 are the same, the resistance value of the MTJ element 400a is low, and the directions of the magnetic moments of the pinned layer 402 and the storage layer 406 are different. In this case, the resistance value of the MTJ element 400a becomes high.
  • the MTJ element 400a can store information by utilizing changes in resistance due to changes in magnetic moment.
  • the MTJ element 400a is sandwiched between an upper electrode (first electrode) and a lower electrode (not shown), and the word line and bit line are connected to each other via these electrodes. It is electrically connected to a wire, a signal line, a selection transistor 420 (see FIG. 3), and the like.
  • the fixed layer (magnetization fixed layer) 402 of the MTJ element 400a is electrically connected to the word line WL and the signal line SL via a lower electrode (not shown) and a selection transistor 420.
  • the memory layer 406 of the MTJ element 400a is electrically connected to the bit line BL via an upper electrode (not shown).
  • a voltage is applied between the lower electrode and the upper electrode of the MTJ element 400a via the signal line SL and the bit line BL, and the memory of the MTJ element 400a is Information will be written to and read from layer 406.
  • FIGS. 4 to 7 are explanatory diagrams illustrating the background that led to the creation of the embodiment of the present disclosure.
  • FIG. 4 By the way, depending on the characteristics of the MTJ element 400a, three patterns shown in FIG. 4 are assumed for the relationship between the voltage applied to the MTJ element 400a and the error rate during data writing. Note that in FIG. 4, the horizontal axis represents the voltage applied to the MTJ element 400a, and the vertical axis represents the error rate of data writing. Furthermore, in FIG. 4, when the applied voltage to the MTJ element 400 is changed from -1 to 0, a write current flows from the signal line SL to the bit line BL, and when the applied voltage is changed from 0 to 1, a write current flows from the signal line SL to the bit line BL. In this case, a write current flows from the bit line BL to the signal line SL.
  • the MTJ element 400a has the pattern shown in the center that can sufficiently reduce the error rate within the applied voltage range. Specifically, it is preferable that the MTJ element 400a has characteristics such that when a predetermined voltage (-1, 1) is applied to the MTJ element 400a, the error rate is sufficiently low (1e -10 ). However, when considering the characteristics of the material constituting the MTJ element 400a and the variations in the quality of the MTJ element 400a etc. during mass production, it is difficult to obtain the MTJ element 400a having characteristics that give the pattern shown in the center.
  • the MTJ element 400a is drain-connected to the selection transistor 420 (see FIG. 3), and since the selection transistor 420 has a high current driving ability, increasing the voltage of the word line WL and signal line SL is sufficient for the MTJ element 400a. It is easy to apply a suitable voltage.
  • the fixed layer 402 of the MTJ element 400a is electrically connected to the bitch line BL via the selection transistor 420, and the storage layer 406 of the MTJ element 400a is electrically connected to the signal line SL.
  • the storage layer 406 of the MTJ element 400a is electrically connected to the signal line SL.
  • the MTJ element 400a has a structure in which a storage layer 406, a nonmagnetic layer 404, and a fixed layer 402 are sequentially stacked, as shown in FIG.
  • the resistance value of the MTJ element 400b is low ( (the directions of the magnetic moments are the same), current easily flows through the MTJ element 400b. As a result, it becomes easy to apply a sufficient voltage to the MTJ element 400b.
  • the fixed layer 402 is easily damaged during processing of the MTJ element 400b, and the desired memory characteristics cannot be achieved. It is conceivable that the MTJ element 400b having the same size cannot be obtained.
  • the present inventor has developed an MTJ that has a small cell size, a small circuit scale, etc., and has a sufficiently low error rate at a predetermined applied voltage, while avoiding damage to the pinned layer 402.
  • An embodiment of the present disclosure has been created in which the imaging device 10 having the element 400 can be easily formed.
  • details of embodiments of the present disclosure created by the present inventor will be sequentially described.
  • FIG. 8 is an explanatory diagram schematically showing the stacked structure of the imaging device 10 according to this embodiment.
  • FIG. 9 is an explanatory diagram showing an outline of the laminated structure of the MTJ element 400 according to the present embodiment, and in detail is an enlarged view of the MTJ element 400 in the cross-sectional view of FIG. 8, with the upper side of FIG. This becomes the back surface 104 of the first semiconductor substrate 100, and the lower side in FIG. 9 becomes the front surface 102 of the first semiconductor substrate 100.
  • the imaging device 10 As shown in FIG. 8, the imaging device 10 according to the present embodiment is configured by bonding two semiconductor substrates (a first semiconductor substrate 100 and a second semiconductor substrate 200) together, as in the comparative example. This is an imaging device with a dimensional structure. Specifically, it is assumed that the imaging device 10 is a back-illuminated imaging device in which light enters from the back surface (light incident surface) 104 side of the first semiconductor substrate 100 having a photodiode (imaging element) 300.
  • the first semiconductor substrate 100 is provided with a pixel region consisting of a plurality of image sensors 300 arranged two-dimensionally on a plane, similar to the comparative example.
  • the image sensor 300 is a photodiode that can generate charges in response to light from the back surface (light incident surface) 104 of the first semiconductor substrate 100, and is a pixel circuit consisting of a plurality of pixel transistors (not shown). electrically connected to.
  • the first semiconductor substrate 100 includes a memory area consisting of a plurality of MTJ (Magnetic Tunnel Junction) elements (first memory elements) 400 arranged two-dimensionally on a plane. is provided.
  • the memory area is provided on the front surface 102 side of the first semiconductor substrate 100, which is located on the opposite side to the back surface 104 with respect to the above-mentioned pixel area. Further, signals used in the image signal processing section and processed signals are stored in the memory area. Note that the detailed configuration of the MTJ element 400 according to this embodiment will be described later.
  • the second semiconductor substrate 200 is provided with a device for controlling the plurality of image sensors 300 or processing signals from the plurality of image sensors 300, for example.
  • a device for controlling the plurality of image sensors 300 or processing signals from the plurality of image sensors 300 for example.
  • an input section, a row driving section, a timing control section, a column signal processing section, an image signal processing section, an output section, and other logic circuits are provided.
  • the first semiconductor substrate 100 and the second semiconductor substrate 200 are bonded so that the surface 102 of the first semiconductor substrate 100 and the surface 202 of the second semiconductor substrate face each other.
  • the first semiconductor substrate 100 and the second semiconductor substrate 200 can be electrically connected by, for example, a through electrode (not shown).
  • the first semiconductor substrate 100 and the second semiconductor substrate 200 have connection parts (junction electrodes) 110 and 210 that electrically connect the first semiconductor substrate 100 and the second semiconductor substrate 200.
  • the connecting parts 110 and 210 are formed of electrodes made of a conductive material, and by directly joining these connecting parts 110 and 210, the first semiconductor substrate 100 and the second semiconductor substrate 200 are connected to each other. This enables signal input and/or output between the first semiconductor substrate 100 and the second semiconductor substrate 200.
  • the conductive material is made of, for example, a metal material such as copper (Cu), aluminum (Al), or gold (Au).
  • the MTJ element 400 includes, on a base layer (not shown), a storage layer 406 whose magnetic moment direction is variable, a nonmagnetic layer 404, and a nonmagnetic layer 404 arranged in a predetermined direction. It has a structure in which a fixed layer (magnetization fixed layer) 402 with a fixed magnetic moment is sequentially laminated. That is, the MTJ element 400 according to the present embodiment is stacked in a different order from the MTJ element 400a according to the comparative example, and has a top Pin structure in which the fixed layer (Pin layer) 402 is located at the top.
  • a fixed layer (magnetization fixed layer) 402 with a fixed magnetic moment is sequentially laminated. That is, the MTJ element 400 according to the present embodiment is stacked in a different order from the MTJ element 400a according to the comparative example, and has a top Pin structure in which the fixed layer (Pin layer) 402 is located at the top.
  • the MTJ element 400 has a top pin structure in which a fixed layer (pin layer) 402 is located at the top.
  • the MTJ element 400 has an upper electrode (first electrode) (not shown) and a lower electrode (second electrode) (not shown), as in the comparative example. and is electrically connected to the word line, bit line, signal line, selection transistor 420, etc. via these electrodes.
  • the memory layer 406 of the MTJ element 400 is electrically connected to the word line WL and the signal line SL via a lower electrode (not shown) and a selection transistor 420 consisting of an n-type MOS (Metal-Oxide-Semiconductor) transistor.
  • MOS Metal-Oxide-Semiconductor
  • the fixed layer (magnetization fixed layer) 402 of the MTJ element 400 is electrically connected to the bit line BL via an upper electrode (not shown) (similar to the MTJ element 400b shown in FIG. 7).
  • an upper electrode not shown
  • a voltage is applied between the lower electrode and the upper electrode of the MTJ element 400 via the word line WL and the bit line BL, and the memory of the MTJ element 400 is Information will be written to and read from layer 406.
  • the source connection is such that the current driving ability of the selection transistor 420 is reduced when a write current flows from the signal line SL toward the bit line BL. Also, since the resistance value of the MTJ element 400 is low (the direction of the magnetic moment is the same), current easily flows through the MTJ element 400. Therefore, it becomes easy to apply a sufficient voltage to the MTJ element 400, and the error rate becomes sufficiently low at a predetermined applied voltage.
  • the cross section of the MTJ element 400 cut along the stacking direction is trapezoidal, and the back surface (light incident surface) 104 side of the trapezoidal first semiconductor substrate 100
  • the length of the upper base located at is longer than the lower base of the trapezoid.
  • the cross-sectional shape of the MTJ element 400 is described as having a trapezoidal shape due to processing, but the cross-sectional shape is not limited to this.
  • the cross-sectional shape of the MTJ element 400 may be rectangular, or the length of the upper base located on the back surface (light incident surface) 104 side of the first semiconductor substrate 100 may be the same as the lower base of the trapezoid. It may also have a trapezoidal shape that is shorter than the other one.
  • the pinned layer 402 is formed of a magnetic material including a ferromagnetic material, and the direction of the magnetic moment is fixed by high coercive force or the like.
  • the nonmagnetic layer 404 is formed from various nonmagnetic materials such as magnesium oxide (MgO), and is provided between the fixed layer 402 and the storage layer 406.
  • the storage layer 406 is formed of a magnetic material containing a ferromagnetic material, and the direction of the magnetic moment changes depending on the information to be stored.
  • FIGS. 10A to 10D are cross-sectional views in one step of the method for manufacturing the MTJ element 400 according to this embodiment.
  • FIGS. 10A to 10D are cross-sectional views in one step of the method for manufacturing the MTJ element 400 according to this embodiment.
  • FIGS. 10A to 10D are cross-sectional views in one step of the method for manufacturing the MTJ element 400 according to this embodiment.
  • only essential parts of this embodiment are shown, and illustration of other elements etc. is abbreviate
  • a substrate in which a lower wiring 502 is provided in an insulating film 500 is prepared, and as shown in the second row from the top of FIG. 10A, it is electrically connected to the lower wiring 502.
  • a damascene structure (a structure in which a metal material is embedded in a groove) 504 is formed.
  • a barrier metal film 506 is formed on the damascene structure 504 and the insulating film 500.
  • an electrode 508 is formed on the barrier metal film 506.
  • an MTJ layer 510 that constitutes the MTJ element 400 according to this embodiment is formed on the electrode 508. Specifically, the MTJ layer 510 is formed on the electrode 508 in the order of the fixed layer 402, the nonmagnetic layer 404, and the storage layer 406.
  • an electrode 512 is formed on the MTJ layer 510.
  • a hard mask 514 is formed on the electrode 512.
  • the hard mask 514 is processed into a predetermined pattern using means such as lithography. Furthermore, as shown in the lower part of FIG. 10B, the MTJ layer 510 and the electrodes 508 and 512 are processed by etching according to the pattern of the hard mask 514, thereby forming the MTJ element 400.
  • a protective film 516 made of an insulating material is formed to cover the MTJ element 400 and the barrier metal film 506.
  • the protective film 516 is removed so that it covers only the top and side surfaces of the MTJ element 400.
  • the barrier metal film 506 is removed so that the barrier metal film 506 remains only on the lower side of the MTJ element 400.
  • an interlayer insulating film 518 is formed to cover the MTJ element 400 and the insulating film 500. Furthermore, the interlayer insulating film 518 is planarized using a technique such as CMP (Chemical Mechanical Polishing) so that the upper surface of the interlayer insulating film 518 is flush with the upper surface of the MTJ element 400. Then, as shown in the lower part of FIG. 10, a wiring 520 is formed within the interlayer insulating film 518. In this way, the MTJ element 400 according to this embodiment can be formed.
  • CMP Chemical Mechanical Polishing
  • FIG. 11 is a cross-sectional view in one step of the method for manufacturing the imaging device 10 according to this embodiment.
  • the first semiconductor substrate 100 on which the MTJ element 400 is formed as described above is prepared.
  • the first semiconductor substrate 100 is turned upside down.
  • the inverted first semiconductor substrate 100 and a second semiconductor substrate provided with a logic circuit are bonded, and a color filter or an on-chip lens is mounted on the top surface of the imaging device 10.
  • the imaging device 10 is formed by forming the above.
  • the MTJ element 400 even when the MTJ element 400 with the top pin structure is provided, when forming the MTJ element 400, the fixed layer 402, the nonmagnetic layer 404, and the storage layer 406 are formed in this order. Since the MTJ element 400 is laminated in a layered manner, damage to the fixed layer 402 can be avoided during processing of the MTJ element 400. Therefore, an MTJ element 400 having desired memory characteristics can be easily obtained. In addition, in this embodiment, since the MTJ element 400 is provided on the first semiconductor substrate 100 instead of the second semiconductor substrate 200 on which the logic circuit is provided, the MTJ element 400 is It is not subject to any restrictions and is not affected by heat or stress applied when forming a logic circuit.
  • the MTJ element 400 is formed on the first semiconductor substrate 100, it is turned upside down and bonded to the second semiconductor substrate 200. Therefore, the MTJ element 400 is different from the conventional one. It can be connected to the logic circuit of the second semiconductor substrate 200 in the same way as the bottom pin structure.
  • the MTJ element 400 is small in cell size, circuit scale, etc., and has a sufficiently low error rate at a predetermined applied voltage, while avoiding damage to the pinned layer 402.
  • the imaging device 10 having the above structure can be easily formed. In other words, according to the present embodiment, it is possible to easily form the imaging device 10 having a three-dimensional structure, which has the MTJ element 400 with small cell size, small circuit scale, etc. and good characteristics.
  • the memory area made up of the plurality of MTJ elements 400 provided on the first semiconductor substrate 100 may be configured to include various storage elements. Therefore, an application example of such a memory area will be explained with reference to FIGS. 12 to 20.
  • FIG. 12 is an explanatory diagram showing a modified example of the memory area according to the present embodiment
  • FIG. 13 is an explanatory diagram showing an example of the circuit of the memory layer according to the present embodiment.
  • 14 and 15 are explanatory diagrams showing the configuration of the imaging device 10 according to a modification of the present embodiment
  • FIGS. 16 to 18 are control examples of the imaging device 10 according to the modification of the present embodiment.
  • FIG. 19 and 20 are explanatory diagrams showing an example of a circuit configuration of an MTJ element 400 according to a modification of the embodiment of the present disclosure.
  • the memory area according to this embodiment may be configured with various storage elements depending on the writing speed, the number of allowed writings, power consumption, circuit scale, storage density, etc.
  • the memory area according to the present embodiment may include a nonvolatile MRAM (also indicated as “nonvolatile” in FIG. 12) consisting of an MTJ element 400 as a nonvolatile memory element.
  • the nonvolatile memory element may include an OTP (One Time Programmable) memory element that can be written only once by destroying the nonmagnetic layer 404 (in FIG. 12, "MRAMOTP"). (Also referred to as "MOTP").
  • the memory area according to this embodiment may include the MTJ element 400 as a volatile memory element.
  • the memory area according to this embodiment may include a logic circuit.
  • the memory area according to the present embodiment may include an SRAM (Static Random Access Memory) having a volatile memory element (also referred to as "SRAM replacement MRAM” or “S replacement” in FIG. 12).
  • the memory area may be an NVPG (Nonvolatile Power Gating) that includes the MTJ element 400 as a nonvolatile memory element and a bistable memory circuit (nonvolatile logic circuit), and retains data even when the power is cut off. can do.
  • SRAM Static Random Access Memory
  • NVPG Nonvolatile Power Gating
  • the NVPG is configured by, for example, a circuit as shown in FIG. 13, and has a configuration in which an MTJ element 400 as a nonvolatile element is electrically connected to a latch part of a logic circuit.
  • the data written in the latch section can be written to the MTJ element 400 when the power is cut off, and the data of the MTJ element 400 can be returned to the latch section when the power is connected, thereby reducing power consumption. I can do it.
  • the MTJ element 400 is provided only on the semiconductor substrate (first semiconductor substrate) 100, but in the embodiment of the present disclosure, two semiconductor substrates (first semiconductor substrate) are provided.
  • the MTJ element 400 may be provided on both of the semiconductor substrate 100 and the second semiconductor substrate 200.
  • the semiconductor substrate 200 may have a plurality of MTJ elements (second memory elements) 400a.
  • the MTJ element 400 provided on the semiconductor substrate 100 and the MTJ element 400a provided on the semiconductor substrate 200 are connected in series to one terminal of the selection transistor.
  • one MTJ element 400 and one MTJ element 400a connected in series are referred to as a memory element pair.
  • a plurality of memory element pairs are provided in the imaging device 10, and these memory element pairs are formed to have different resistance values from each other. has a multilevel memory element.
  • the MTJ element 400 provided on the semiconductor substrate 100 and the MTJ element 400a provided on the semiconductor substrate 200 may be connected in series via a selection transistor.
  • the MTJ element 400a provided on the semiconductor substrate 200 preferably has a bottom pin structure.
  • the MTJ element 400a includes, from the substrate side of the semiconductor substrate 100, a memory layer 406 in which the direction of the magnetic moment is variable, a nonmagnetic layer 404, and a fixed layer (magnetization fixed layer) in which the magnetic moment is fixed in a predetermined direction. It is preferable that the layers 402 and 402 have a laminated structure in which they are laminated in this order.
  • the MTJ element 400 provided on the semiconductor substrate 100 and the MTJ element 400a provided on the semiconductor substrate 200 are connected so as to be sandwiched between two selection transistors. Good too.
  • the MTJ elements 400, 400a to be read are controlled by turning on/off each selection transistor, and the resistance value of each MTJ element 400, 400a is converted into an analog value. It may be read by a read transistor.
  • reading may be performed from one or more MTJ elements 400, or in other words, reading may be performed from an MTJ element provided on one semiconductor substrate. Further, as shown in FIG. 18, reading may be performed from both the MTJ element 400 and the MTJ element 400a.
  • the semiconductor substrate 100 may be provided with an MTJ element 400 having a top pin structure, which is a nonvolatile memory element, and the semiconductor substrate 200 may be provided with an SRAM (Static Random Access Memory) replacement, an MTJ element 400a with a bottom pin structure may be provided, or the types of memory elements may be exchanged between the semiconductor substrate 100 and the semiconductor substrate 200.
  • SRAM Static Random Access Memory
  • the MTJ element 400 may be electrically connected to a read transistor and a write transistor.
  • the write transistor is a high voltage transistor (HVTr) that does not break down even when a high voltage is applied due to the thick gate oxide film. It is preferable.
  • the read transistor is preferably a low breakdown voltage transistor (LVTr) that has a thinner gate oxide film than the write transistor and can allow a large amount of current to flow even at a low voltage. Note that it is preferable that current flow through the read transistor in a direction that suppresses an increase in read errors.
  • an MTJ element that has a small cell size, a small circuit scale, etc., and has a sufficiently low error rate at a predetermined applied voltage while avoiding damage to the pinned layer 402 400 can be easily formed.
  • the imaging device 10 having a three-dimensional structure, which has the MTJ element 400 with small cell size, small circuit scale, etc. and good characteristics.
  • the imaging device 10 and the MTJ element 400 according to the embodiments of the present disclosure can be manufactured using methods, devices, and conditions used for manufacturing general semiconductor devices. That is, the imaging device 10 and the MTJ element 400 according to this embodiment can be manufactured using existing semiconductor device manufacturing processes.
  • the above-mentioned methods include, for example, the PVD (Physical Vapor Deposition) method, the CVD (Chemical Vapor Deposition) method, and the ALD (Atomic Layer Deposition) method.
  • PVD Physical Vapor Deposition
  • CVD Chemical Vapor Deposition
  • ALD Atomic Layer Deposition
  • the PVD method include vacuum evaporation, EB (electron beam) evaporation, various sputtering methods (magnetron sputtering, RF (Radio Frequency)-DC (Direct Current) coupled bias sputtering, and ECR (Electron Cyclotron Resona).
  • examples of the CVD method include a plasma CVD method, a thermal CVD method, an organic metal (MO) CVD method, and a photoCVD method.
  • other methods include electrolytic plating, electroless plating, spin coating, dipping, casting, micro contact printing, drop casting, screen printing, inkjet printing, offset printing, and gravure printing.
  • various printing methods such as flexographic printing method; stamp method; spray method; air doctor coater method, blade coater method, rod coater method, knife coater method, squeeze coater method, reverse roll coater method, transfer roll coater method, gravure coater method , a kiss coater method, a cast coater method, a spray coater method, a slit orifice coater method, and a calendar coater method.
  • patterning methods include chemical etching such as shadow masking, laser transfer, and photolithography, and physical etching using ultraviolet rays, laser, and the like.
  • examples of the planarization technique include a CMP method, a laser planarization method, a reflow method, and the like.
  • FIG. 21 is an explanatory diagram showing an example of a schematic functional configuration of a camera 700 to which the technology according to the present disclosure (present technology) can be applied.
  • the camera 700 includes an imaging device 10, an optical lens 710, a shutter mechanism 712, a drive circuit unit 714, and a signal processing circuit unit 716.
  • the optical lens 710 forms an image of image light (incident light) from the subject onto the imaging surface of the imaging device 10 .
  • signal charges are accumulated in the imaging element 300 of the imaging device 10 for a certain period of time.
  • the shutter mechanism 712 controls the light irradiation period and the light blocking period to the imaging device 10 by opening and closing.
  • the drive circuit unit 714 supplies drive signals for controlling the signal transfer operation of the imaging device 10, the shutter operation of the shutter mechanism 712, and the like.
  • the imaging device 10 performs signal transfer based on the drive signal (timing signal) supplied from the drive circuit unit 714.
  • the signal processing circuit unit 716 performs various signal processing. For example, the signal processing circuit unit 716 outputs the signal-processed video signal to a storage medium (not shown) such as a memory, or to a display unit (not shown).
  • Each of the above components may be constructed using general-purpose members, or may be constructed using hardware specialized for the function of each component. Such a configuration may be changed as appropriate depending on the level of technology at the time of implementation.
  • FIG. 22 is a block diagram illustrating an example of a schematic functional configuration of a smartphone 900 to which the technology according to the present disclosure (present technology) can be applied.
  • the smartphone 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903.
  • the smartphone 900 also includes a storage device 904, a communication module 905, and a sensor module 907.
  • the smartphone 900 includes an imaging device 10, a display device 910, a speaker 911, a microphone 912, an input device 913, and a bus 914.
  • the smartphone 900 may include a processing circuit such as a DSP (Digital Signal Processor) in place of or in addition to the CPU 901.
  • DSP Digital Signal Processor
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or part of the operations within the smartphone 900 according to various programs recorded in the ROM 902, RAM 903, storage device 904, or the like.
  • the ROM 902 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901 and parameters that change as appropriate during the execution.
  • the CPU 901, ROM 902, and RAM 903 are interconnected by a bus 914.
  • the storage device 904 is a data storage device configured as an example of a storage unit of the smartphone 900.
  • the storage device 904 includes, for example, a magnetic storage device such as a HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, and the like. This storage device 904 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • a magnetic storage device such as a HDD (Hard Disk Drive)
  • This storage device 904 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the communication module 905 is, for example, a communication interface configured with a communication device for connecting to the communication network 906.
  • the communication module 905 may be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), WUSB (Wireless USB), or the like.
  • the communication module 905 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various types of communication, or the like.
  • the communication module 905 transmits and receives signals, etc., to and from the Internet or other communication devices, for example, using a predetermined protocol such as TCP (Transmission Control Protocol)/IP (Internet Protocol).
  • a communication network 906 connected to the communication module 905 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, or satellite communication.
  • the sensor module 907 is, for example, a motion sensor (for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.), a biological information sensor (for example, a pulse sensor, a blood pressure sensor, a fingerprint sensor, etc.), or a position sensor (for example, a GNSS (Global Navigation sensor)). It includes various sensors such as Satellite System (receiver, etc.).
  • a motion sensor for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.
  • a biological information sensor for example, a pulse sensor, a blood pressure sensor, a fingerprint sensor, etc.
  • GNSS Global Navigation sensor
  • the imaging device 10 is provided on the surface of the smartphone 900 and can image objects located on the back or front side of the smartphone 900. Specifically, the technology according to the present disclosure (this technology) can be applied to the imaging device 10. Furthermore, the imaging device 10 further includes an optical system mechanism (not shown) including an imaging lens, a zoom lens, a focus lens, etc., and a drive system mechanism (not shown) that controls the operation of the optical system mechanism. I can do it.
  • the imaging device 10 collects the incident light from the object as an optical image, photoelectrically converts the formed optical image in units of 300 imaging elements (pixels), and converts the signal obtained by the conversion into an imaging signal. A captured image can be obtained by reading it out as a 3D image and performing image processing.
  • the display device 910 is provided on the surface of the smartphone 900, and can be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display.
  • the display device 910 can display an operation screen, a captured image acquired by the imaging device 10 described above, and the like.
  • the speaker 911 can output to the user, for example, the voice of a telephone call or the voice accompanying the video content displayed by the display device 910 described above.
  • the microphone 912 can collect, for example, a user's call voice, voice including a command to activate a function of the smartphone 900, and voice of the surrounding environment of the smartphone 900.
  • the input device 913 is a device operated by the user, such as a button, keyboard, touch panel, or mouse.
  • Input device 913 includes an input control circuit that generates an input signal based on information input by the user and outputs it to CPU 901. By operating this input device 913, the user can input various data to the smartphone 900 and instruct processing operations.
  • Each of the above components may be constructed using general-purpose members, or may be constructed using hardware specialized for the function of each component. Such a configuration may be changed as appropriate depending on the level of technology at the time of implementation.
  • FIG. 23 is a block diagram showing a configuration example of a vehicle control system 11, which is an example of a mobile device control system to which the present technology is applied.
  • the vehicle control system 11 is provided in the vehicle 1 and performs processing related to travel support and automatic driving of the vehicle 1.
  • the vehicle control system 11 includes a vehicle control ECU (Electronic Control Unit) 21, a communication unit 22, a map information storage unit 23, a position information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a storage unit 28, and a driving unit. It includes a support/automatic driving control section 29, a DMS (Driver Monitoring System) 30, an HMI (Human Machine Interface) 31, and a vehicle control section 32.
  • vehicle control ECU Electronic Control Unit
  • communication unit 22 includes a communication unit 22, a map information storage unit 23, a position information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a storage unit 28, and a driving unit.
  • a position information acquisition unit includes a position information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a storage unit 28, and a driving unit. It includes a support/automatic driving control section 29, a DMS (Driver Monitoring System) 30, an HMI (Human Machine Interface) 31, and
  • Vehicle control ECU 21, communication unit 22, map information storage unit 23, position information acquisition unit 24, external recognition sensor 25, in-vehicle sensor 26, vehicle sensor 27, storage unit 28, driving support/automatic driving control unit 29, driver monitoring system ( DMS) 30, human machine interface (HMI) 31, and vehicle control unit 32 are connected to each other via a communication network 41 so that they can communicate with each other.
  • the communication network 41 is, for example, CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), FlexRay (registered trademark), or Ethernet ( In-vehicle devices that comply with digital two-way communication standards such as (registered trademark) It consists of communication networks, buses, etc.
  • the communication network 41 may be used depending on the type of data to be transmitted.
  • CAN may be applied to data related to vehicle control
  • Ethernet may be applied to large-capacity data.
  • each part of the vehicle control system 11 uses a wireless communication system that assumes relatively short-range communication, such as near field communication (NFC) or Bluetooth (registered trademark), without going through the communication network 41. They may also be directly connected using communications.
  • NFC near field communication
  • Bluetooth registered trademark
  • the vehicle control ECU 21 is composed of various processors such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).
  • the vehicle control ECU 21 can control the entire or part of the functions of the vehicle control system 11.
  • the communication unit 22 can communicate with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and can send and receive various data. At this time, the communication unit 22 may communicate using a plurality of communication methods.
  • the communication unit 22 communicates with an external network via a base station or an access point using a wireless communication method such as 5G (fifth generation mobile communication system), LTE (Long Term Evolution), or DSRC (Dedicated Short Range Communications). It is possible to communicate with a server (hereinafter referred to as an external server) located in the external server.
  • the external network with which the communication unit 22 communicates is, for example, the Internet, a cloud network, or a network unique to the operator.
  • the communication method that the communication unit 22 performs with the external network is not particularly limited as long as it is a wireless communication method that allows digital two-way communication at a communication speed of a predetermined rate or higher and over a predetermined distance or longer.
  • the communication unit 22 can communicate with a terminal located near the own vehicle using P2P (Peer To Peer) technology.
  • Terminals that exist near the own vehicle are, for example, terminals worn by moving objects that move at relatively low speeds such as pedestrians and bicycles, terminals that are installed at fixed locations in stores, or MTC (Machine Type) terminals. (Communication) terminals.
  • the communication unit 22 can also perform V2X communication.
  • V2X communication includes, for example, vehicle-to-vehicle communication with other vehicles, vehicle-to-infrastructure communication with roadside equipment, vehicle-to-home communication, etc. It also refers to communications between one's own vehicle and others, such as vehicle-to-pedestrian communications between pedestrians and terminals carried by pedestrians.
  • the communication unit 22 can receive, for example, a program for updating software that controls the operation of the vehicle control system 11 from the outside (over the air). Furthermore, the communication unit 22 can receive map information, traffic information, information about the surroundings of the vehicle 1, etc. from the outside. Further, for example, the communication unit 22 can transmit information regarding the vehicle 1, information around the vehicle 1, etc. to the outside. Examples of the information regarding the vehicle 1 that the communication unit 22 transmits to the outside include data indicating the state of the vehicle 1, recognition results by the recognition unit 73, and the like. Furthermore, for example, the communication unit 22 can also perform communication compatible with a vehicle emergency notification system such as e-call.
  • a vehicle emergency notification system such as e-call.
  • the communication unit 22 can also receive electromagnetic waves transmitted by a vehicle information and communication system (VICS (registered trademark)) such as a radio beacon, an optical beacon, and FM multiplex broadcasting.
  • VICS vehicle information and communication system
  • the communication unit 22 can communicate with each device in the vehicle using, for example, wireless communication.
  • the communication unit 22 wirelessly communicates with in-vehicle devices using a communication method such as wireless LAN, Bluetooth (registered trademark), NFC, or WUSB (Wireless USB) that allows digital two-way communication at a communication speed higher than a predetermined speed. Can communicate.
  • the communication unit 22 is not limited to this, and can also communicate with each device in the vehicle using wired communication.
  • the communication unit 22 can communicate with each device in the vehicle through wired communication via a cable connected to a connection terminal (not shown).
  • the communication unit 22 uses, for example, USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), MHL (Mobile High-definition L) Digital two-way communication at a communication speed higher than the specified speed using wired communication such as It is possible to communicate with each device in the car using a communication method that allows for communication.
  • USB Universal Serial Bus
  • HDMI High-Definition Multimedia Interface
  • MHL Mobile High-definition L
  • the in-vehicle equipment refers to, for example, equipment that is not connected to the communication network 41 inside the car.
  • in-vehicle devices include mobile devices and wearable devices carried by passengers such as drivers, information devices brought into the vehicle and temporarily installed, and the like.
  • the map information storage unit 23 can store one or both of a map acquired from the outside and a map created by the vehicle 1.
  • the map information storage unit 23 stores three-dimensional high-precision maps, global maps that are less accurate than high-precision maps, and cover a wide area, and the like.
  • Examples of high-precision maps include dynamic maps, point cloud maps, vector maps, etc.
  • the dynamic map is, for example, a map consisting of four layers of dynamic information, semi-dynamic information, semi-static information, and static information, and is provided to the vehicle 1 from an external server or the like.
  • a point cloud map is a map composed of point clouds (point cloud data).
  • a vector map is a map that is compatible with ADAS (Advanced Driver Assistance System) and AD (Autonomous Driving) by associating traffic information such as lanes and traffic light positions with a point cloud map.
  • the point cloud map and vector map may be provided, for example, from an external server, or may be used as a map for matching with the local map described later based on sensing results from the camera 51, radar 52, LiDAR 53, etc. It may be created in the vehicle 1 and stored in the map information storage section 23. Furthermore, when a high-definition map is provided from an external server, etc., in order to reduce communication capacity, map data of, for example, several hundred meters square regarding the planned route that the vehicle 1 will travel from now on is obtained from the external server, etc. .
  • the position information acquisition unit 24 can receive a GNSS signal from a GNSS (Global Navigation Satellite System) satellite and acquire the position information of the vehicle 1.
  • the acquired position information is supplied to the driving support/automatic driving control section 29.
  • the location information acquisition unit 24 is not limited to the method using GNSS signals, and may acquire location information using a beacon, for example.
  • the external recognition sensor 25 has various sensors used to recognize the external situation of the vehicle 1, and can supply sensor data from each sensor to each part of the vehicle control system 11.
  • the type and number of sensors included in the external recognition sensor 25 are not particularly limited.
  • the external recognition sensor 25 includes a camera 51, a radar 52, a LiDAR (Light Detection and Ranging, a Laser Imaging Detection and Ranging) 53, and an ultrasonic sensor 54.
  • the configuration is not limited to this, and the external recognition sensor 25 may include one or more types of sensors among the camera 51, the radar 52, the LiDAR 53, and the ultrasonic sensor 54.
  • the number of cameras 51, radar 52, LiDAR 53, and ultrasonic sensors 54 is not particularly limited as long as it can be realistically installed in vehicle 1.
  • the types of sensors included in the external recognition sensor 25 are not limited to this example, and the external recognition sensor 25 may include other types of sensors. An example of the sensing area of each sensor included in the external recognition sensor 25 will be described later.
  • the photographing method of the camera 51 is not particularly limited.
  • cameras with various imaging methods such as a ToF (Time of Flight) camera, a stereo camera, a monocular camera, and an infrared camera, which are capable of distance measurement, can be applied to the camera 51 as necessary.
  • the camera 51 may be used simply to obtain photographed images, regardless of distance measurement.
  • the imaging device 10 according to the embodiment of the present disclosure can be applied to the camera 51.
  • the external recognition sensor 25 can include an environment sensor for detecting the environment for the vehicle 1.
  • the environmental sensor is a sensor for detecting the environment such as weather, meteorology, brightness, etc., and can include various sensors such as a raindrop sensor, a fog sensor, a sunlight sensor, a snow sensor, and an illuminance sensor.
  • the external recognition sensor 25 includes a microphone used to detect sounds around the vehicle 1 and the position of the sound source.
  • the in-vehicle sensor 26 has various sensors for detecting information inside the vehicle, and can supply sensor data from each sensor to each part of the vehicle control system 11.
  • the types and number of various sensors included in the in-vehicle sensor 26 are not particularly limited as long as they can be realistically installed in the vehicle 1.
  • the in-vehicle sensor 26 can include one or more types of sensors among a camera, radar, seating sensor, steering wheel sensor, microphone, and biological sensor.
  • the camera included in the in-vehicle sensor 26 it is possible to use cameras of various photographing methods capable of distance measurement, such as a ToF camera, a stereo camera, a monocular camera, and an infrared camera.
  • the present invention is not limited to this, and the camera included in the in-vehicle sensor 26 may simply be used to acquire photographed images, regardless of distance measurement.
  • the imaging device 10 according to the embodiment of the present disclosure can also be applied to a camera included in the in-vehicle sensor 26.
  • the biosensor included in the in-vehicle sensor 26 is provided, for example, on a seat, a steering wheel, etc., and detects various biometric information of a passenger such as a driver.
  • the vehicle sensor 27 has various sensors for detecting the state of the vehicle 1, and can supply sensor data from each sensor to each part of the vehicle control system 11.
  • the types and number of various sensors included in the vehicle sensor 27 are not particularly limited as long as they can be realistically installed in the vehicle 1.
  • the vehicle sensor 27 can include a speed sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), and an inertial measurement unit (IMU) that integrates these.
  • the vehicle sensor 27 includes a steering angle sensor that detects the steering angle of the steering wheel, a yaw rate sensor, an accelerator sensor that detects the amount of operation of the accelerator pedal, and a brake sensor that detects the amount of operation of the brake pedal.
  • the vehicle sensor 27 includes a rotation sensor that detects the rotation speed of an engine or motor, an air pressure sensor that detects tire air pressure, a slip rate sensor that detects tire slip rate, and a wheel speed sensor that detects wheel rotation speed.
  • the vehicle sensor 27 includes a battery sensor that detects the remaining battery power and temperature, and an impact sensor that detects an external impact.
  • the storage unit 28 includes at least one of a nonvolatile storage medium and a volatile storage medium, and can store data and programs.
  • the storage unit 28 is used, for example, as an EEPROM (Electrically Erasable Programmable Read Only Memory) and a RAM (Random Access Memory), and as a storage medium, an HDD (Ha magnetic storage devices such as rd Disc Drive), semiconductor storage devices, optical storage devices, Also, a magneto-optical storage device can be applied.
  • the storage unit 28 stores various programs and data used by each part of the vehicle control system 11.
  • the storage unit 28 includes an EDR (Event Data Recorder) and a DSSAD (Data Storage System for Automated Driving), and stores information on the vehicle 1 before and after an event such as an accident and information acquired by the in-vehicle sensor 26. do .
  • EDR Event Data Recorder
  • DSSAD Data Storage System for Automated Driving
  • the driving support/automatic driving control unit 29 can control driving support and automatic driving of the vehicle 1.
  • the driving support/automatic driving control section 29 includes an analysis section 61, an action planning section 62, and an operation control section 63.
  • the analysis unit 61 can perform analysis processing of the vehicle 1 and the surrounding situation.
  • the analysis section 61 includes a self-position estimation section 71, a sensor fusion section 72, and a recognition section 73.
  • the self-position estimating section 71 can estimate the self-position of the vehicle 1 based on the sensor data from the external recognition sensor 25 and the high-precision map stored in the map information storage section 23. For example, the self-position estimating unit 71 estimates the self-position of the vehicle 1 by generating a local map based on sensor data from the external recognition sensor 25 and matching the local map with a high-precision map. The position of the vehicle 1 can be based on, for example, the center of the rear wheels versus the axle.
  • the local map is, for example, a three-dimensional high-precision map created using a technology such as SLAM (Simultaneous Localization and Mapping), an occupancy grid map, or the like.
  • the three-dimensional high-precision map is, for example, the above-mentioned point cloud map.
  • the occupancy grid map is a map that divides the three-dimensional or two-dimensional space around the vehicle 1 into grids (grids) of a predetermined size and shows the occupancy state of objects in grid units.
  • the occupancy state of an object is indicated by, for example, the presence or absence of the object or the probability of its existence.
  • the local map is also used, for example, in the detection process and recognition process of the external situation of the vehicle 1 by the recognition unit 73.
  • the self-position estimation unit 71 may estimate the self-position of the vehicle 1 based on the position information acquired by the position information acquisition unit 24 and sensor data from the vehicle sensor 27.
  • the sensor fusion unit 72 performs sensor fusion processing to obtain new information by combining a plurality of different types of sensor data (for example, image data supplied from the camera 51 and sensor data supplied from the radar 52). be able to. Examples of methods for combining different types of sensor data include integration, fusion, and federation.
  • the recognition unit 73 can perform a detection process that detects the external situation of the vehicle 1 and a recognition process that recognizes the external situation of the vehicle 1.
  • the recognition unit 73 performs detection processing and recognition processing of the external situation of the vehicle 1 based on information from the external recognition sensor 25, information from the self-position estimation unit 71, information from the sensor fusion unit 72, etc. .
  • the recognition unit 73 performs detection processing and recognition processing of objects around the vehicle 1.
  • Object detection processing is, for example, processing for detecting the presence or absence, size, shape, position, movement, etc. of an object.
  • the object recognition process is, for example, a process of recognizing attributes such as the type of an object or identifying a specific object.
  • detection processing and recognition processing are not necessarily clearly separated, and may overlap.
  • the recognition unit 73 detects objects around the vehicle 1 by performing clustering to classify point clouds based on sensor data from the radar 52, LiDAR 53, etc. into point clouds. As a result, the presence, size, shape, and position of objects around the vehicle 1 are detected.
  • the recognition unit 73 detects the movement of objects around the vehicle 1 by performing tracking that follows the movement of a group of points classified by clustering. As a result, the speed and traveling direction (movement vector) of objects around the vehicle 1 are detected.
  • the recognition unit 73 detects or recognizes vehicles, people, bicycles, obstacles, structures, roads, traffic lights, traffic signs, road markings, etc. based on the image data supplied from the camera 51. Further, the recognition unit 73 may recognize the types of objects around the vehicle 1 by performing recognition processing such as semantic segmentation.
  • the recognition unit 73 uses the map stored in the map information storage unit 23, the self-position estimation result by the self-position estimating unit 71, and the recognition result of objects around the vehicle 1 by the recognition unit 73 to Recognition processing of traffic rules around the vehicle 1 can be performed. Through this processing, the recognition unit 73 can recognize the positions and states of traffic lights, the contents of traffic signs and road markings, the contents of traffic regulations, the lanes in which the vehicle can travel, and the like.
  • the recognition unit 73 can perform recognition processing of the environment around the vehicle 1.
  • the surrounding environment to be recognized by the recognition unit 73 includes weather, temperature, humidity, brightness, road surface conditions, and the like.
  • the action planning unit 62 creates an action plan for the vehicle 1.
  • the action planning unit 62 can create an action plan by performing route planning and route following processing.
  • global path planning is a process of planning a rough route from the start to the goal. This route planning is called trajectory planning, and involves generating a trajectory (local path planning) that can safely and smoothly proceed near the vehicle 1 on the planned route, taking into account the motion characteristics of the vehicle 1. It also includes the processing to be performed.
  • Route following is a process of planning actions to safely and accurately travel the route planned by route planning within the planned time.
  • the action planning unit 62 can calculate the target speed and target angular velocity of the vehicle 1, for example, based on the results of this route following process.
  • the motion control section 63 can control the motion of the vehicle 1 in order to realize the action plan created by the action planning section 62.
  • the operation control unit 63 controls a steering control unit 81, a brake control unit 82, and a drive control unit 83 included in the vehicle control unit 32, which will be described later, so that the vehicle 1 follows the trajectory calculated by the trajectory plan. Acceleration/deceleration control and direction control are performed to move forward.
  • the operation control unit 63 performs cooperative control aimed at realizing ADAS functions such as collision avoidance or shock mitigation, follow-up driving, vehicle speed maintenance driving, self-vehicle collision warning, and lane departure warning for self-vehicle.
  • the operation control unit 63 performs cooperative control for the purpose of automatic driving, etc., in which the vehicle autonomously travels without depending on the driver's operation.
  • the DMS 30 can perform driver authentication processing, recognition processing of the driver's state, etc. based on sensor data from the in-vehicle sensor 26, input data input to the HMI 31, which will be described later, and the like.
  • the driver's condition to be recognized includes, for example, physical condition, alertness level, concentration level, fatigue level, line of sight direction, drunkenness level, driving operation, posture, etc.
  • the DMS 30 may perform the authentication process of a passenger other than the driver and the recognition process of the state of the passenger. Further, for example, the DMS 30 may perform recognition processing of the situation inside the vehicle based on sensor data from the in-vehicle sensor 26.
  • the conditions inside the vehicle that are subject to recognition include, for example, temperature, humidity, brightness, and odor.
  • the HMI 31 is capable of inputting various data and instructions, and presenting various data to the driver and the like.
  • HMI 31 has an input device for a person to input data.
  • the HMI 31 generates input signals based on data, instructions, etc. input by an input device, and supplies them to each part of the vehicle control system 11 .
  • the HMI 31 has operators such as a touch panel, buttons, switches, and levers as input devices.
  • the present invention is not limited to this, and the HMI 31 may further include an input device capable of inputting information by a method other than manual operation using voice, gesture, or the like.
  • the HMI 31 may use, as an input device, an externally connected device such as a remote control device using infrared rays or radio waves, a mobile device or a wearable device compatible with the operation of the vehicle control system 11, for example.
  • the HMI 31 generates visual information, auditory information, and tactile information for the passenger or the outside of the vehicle. Furthermore, the HMI 31 performs output control to control the output, output content, output timing, output method, etc. of each generated information.
  • the HMI 31 generates and outputs, as visual information, information shown by images and lights, such as an operation screen, a status display of the vehicle 1, a warning display, and a monitor image showing the surrounding situation of the vehicle 1, for example.
  • the HMI 31 generates and outputs, as auditory information, information indicated by sounds such as audio guidance, warning sounds, and warning messages.
  • the HMI 31 generates and outputs, as tactile information, information given to the passenger's tactile sense by, for example, force, vibration, movement, or the like.
  • an output device for the HMI 31 to output visual information for example, a display device that presents visual information by displaying an image or a projector device that presents visual information by projecting an image can be applied.
  • the display device is not limited to a display device having a normal display, but also includes a head-up display, a transmissive display, and a wearable device with an AR (Augmented Reality) function that displays visual information within the passenger's field of vision. It may be a device.
  • the HMI 31 can also use a display device included in a navigation device, an instrument panel, a CMS (Camera Monitoring System), an electronic mirror, a lamp, etc. provided in the vehicle 1 as an output device that outputs visual information.
  • an output device through which the HMI 31 outputs auditory information for example, an audio speaker, headphones, or earphones can be used.
  • a haptics element using haptics technology can be applied as an output device from which the HMI 31 outputs tactile information.
  • the haptic element is provided in a portion of the vehicle 1 that comes into contact with a passenger, such as a steering wheel or a seat.
  • the vehicle control unit 32 can control each part of the vehicle 1.
  • the vehicle control section 32 includes a steering control section 81 , a brake control section 82 , a drive control section 83 , a body system control section 84 , a light control section 85 , and a horn control section 86 .
  • the steering control unit 81 can detect and control the state of the steering system of the vehicle 1.
  • the steering system includes, for example, a steering mechanism including a steering wheel, electric power steering, and the like.
  • the steering control unit 81 includes, for example, a steering ECU that controls the steering system, an actuator that drives the steering system, and the like.
  • the brake control unit 82 can detect and control the state of the brake system of the vehicle 1.
  • the brake system includes, for example, a brake mechanism including a brake pedal, an ABS (Antilock Brake System), a regenerative brake mechanism, and the like.
  • the brake control unit 82 includes, for example, a brake ECU that controls the brake system, an actuator that drives the brake system, and the like.
  • the drive control unit 83 can detect and control the state of the drive system of the vehicle 1.
  • the drive system includes, for example, an accelerator pedal, a drive force generation device such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, and the like.
  • the drive control unit 83 includes, for example, a drive ECU that controls the drive system, an actuator that drives the drive system, and the like.
  • the body system control unit 84 can detect and control the state of the body system of the vehicle 1.
  • the body system includes, for example, a keyless entry system, a smart key system, a power window device, a power seat, an air conditioner, an air bag, a seat belt, a shift lever, and the like.
  • the body system control unit 84 includes, for example, a body system ECU that controls the body system, an actuator that drives the body system, and the like.
  • the light control unit 85 can detect and control the states of various lights on the vehicle 1. Examples of lights to be controlled include headlights, backlights, fog lights, turn signals, brake lights, projections, bumper displays, and the like.
  • the light control unit 85 includes a light ECU that controls the lights, an actuator that drives the lights, and the like.
  • the horn control unit 86 can detect and control the state of the car horn of the vehicle 1.
  • the horn control unit 86 includes, for example, a horn ECU that controls the car horn, an actuator that drives the car horn, and the like.
  • FIG. 24 is a diagram showing an example of sensing areas by the camera 51, radar 52, LiDAR 53, ultrasonic sensor 54, etc. of the external recognition sensor 25 in FIG. 23. Note that FIG. 24 schematically shows the vehicle 1 viewed from above, with the left end side being the front end (front) side of the vehicle 1, and the right end side being the rear end (rear) side of the vehicle 1.
  • the sensing region 101F and the sensing region 101B are examples of sensing regions of the ultrasonic sensor 54.
  • the sensing region 101F covers the area around the front end of the vehicle 1 by a plurality of ultrasonic sensors 54.
  • the sensing region 101B covers the area around the rear end of the vehicle 1 by a plurality of ultrasonic sensors 54.
  • the sensing results in the sensing area 101F and the sensing area 101B are used, for example, for parking assistance for the vehicle 1.
  • the sensing regions 102F and 102B are examples of sensing regions of the short-range or medium-range radar 52.
  • the sensing area 102F covers a position farther forward than the sensing area 101F in front of the vehicle 1.
  • Sensing area 102B covers the rear of vehicle 1 to a position farther than sensing area 101B.
  • the sensing region 102L covers the rear periphery of the left side surface of the vehicle 1.
  • the sensing region 102R covers the rear periphery of the right side of the vehicle 1.
  • the sensing results in the sensing region 102F are used, for example, to detect vehicles, pedestrians, etc. that are present in front of the vehicle 1.
  • the sensing results in the sensing region 102B are used, for example, for a rear collision prevention function of the vehicle 1.
  • the sensing results in the sensing region 102L and the sensing region 102R are used, for example, to detect an object in a blind spot on the side of the vehicle 1.
  • the sensing area 103F to the sensing area 103B are examples of sensing areas by the camera 51.
  • the sensing area 103F covers a position farther forward than the sensing area 102F in front of the vehicle 1.
  • Sensing area 103B covers the rear of vehicle 1 to a position farther than sensing area 102B.
  • the sensing region 103L covers the periphery of the left side of the vehicle 1.
  • the sensing region 103R covers the periphery of the right side of the vehicle 1.
  • the sensing results in the sensing region 103F can be used, for example, for recognition of traffic lights and traffic signs, lane departure prevention support systems, and automatic headlight control systems.
  • the sensing results in the sensing region 103B can be used, for example, in parking assistance and surround view systems.
  • the sensing results in the sensing region 103L and the sensing region 103R can be used, for example, in a surround view system.
  • the sensing area 120 shows an example of the sensing area of the LiDAR 53. Sensing area 120 covers the front of vehicle 1 to a position farther than sensing area 103F. On the other hand, the sensing region 120 has a narrower range in the left-right direction than the sensing region 103F.
  • the sensing results in the sensing area 120 are used, for example, to detect objects such as surrounding vehicles.
  • the sensing area 105 is an example of the sensing area of the long-distance radar 52. Sensing area 105 covers a position farther forward than sensing area 120 in front of vehicle 1 . On the other hand, the sensing area 105 has a narrower range in the left-right direction than the sensing area 120.
  • the sensing results in the sensing region 105 are used, for example, for ACC (Adaptive Cruise Control), emergency braking, collision avoidance, and the like.
  • ACC Adaptive Cruise Control
  • emergency braking braking
  • collision avoidance collision avoidance
  • the sensing areas of the cameras 51, radar 52, LiDAR 53, and ultrasonic sensors 54 included in the external recognition sensor 25 may have various configurations other than those shown in FIG. 24.
  • the ultrasonic sensor 54 may also sense the side of the vehicle 1, or the LiDAR 53 may sense the rear of the vehicle 1.
  • the installation position of each sensor is not limited to each example mentioned above. Further, the number of each sensor may be one or more than one.
  • a semiconductor device including a stack of a first semiconductor substrate and a second semiconductor substrate,
  • the first semiconductor substrate is an image sensor that generates charges in response to light from the light incident surface of the first semiconductor substrate; a first memory element provided on a side opposite to the light incident surface with respect to the image sensor; Equipped with The first memory element is having a laminated structure in which a magnetization fixed layer, a nonmagnetic layer, and a storage layer are laminated in this order from the light incident surface side;
  • Semiconductor equipment including a stack of a first semiconductor substrate and a second semiconductor substrate,
  • the first semiconductor substrate is an image sensor that generates charges in response to light from the light incident surface of the first semiconductor substrate;
  • a first memory element provided on a side opposite to the light incident surface with respect to the image sensor; Equipped with The first memory element is having a laminated structure in which a magnetization fixed layer, a nonmagnetic layer, and a storage layer are laminated in this order from the light incident surface side;
  • a cross section of the first memory element cut along the stacking direction is trapezoidal, The length of the upper base of the trapezoid located on the light entrance surface side is longer than the lower base of the trapezoid, The semiconductor device according to (1) above.
  • the second semiconductor substrate includes a logic circuit.
  • the bonding electrode is made of copper.
  • the first memory element is further comprising a first electrode and a second electrode sandwiching the laminated structure, The first electrode is located on the light incident surface side with respect to the laminated structure, the second electrode is electrically connected to a selection transistor; The semiconductor device according to any one of (1) to (5) above. (7) The semiconductor device according to (6) above, wherein the selection transistor is an n-type MOS transistor. (8) the first memory element is electrically connected to a read transistor and a write transistor; The semiconductor device according to any one of (1) to (7) above, wherein gate oxide films of the read transistor and the write transistor have different film thicknesses.
  • the first semiconductor substrate is a pixel area made up of a plurality of the image sensors arranged two-dimensionally; a memory area consisting of a plurality of the first memory elements arranged two-dimensionally; Equipped with The semiconductor device according to any one of (1) to (8) above.
  • the plurality of first memory elements include a volatile memory element and a nonvolatile memory element.
  • the memory area includes a logic circuit.
  • the second semiconductor substrate does not include a memory element.
  • the second semiconductor substrate includes a plurality of second memory elements.
  • Each of the second memory elements includes: having a laminated structure in which a storage layer, a nonmagnetic layer, and a magnetization fixed layer are laminated in this order from the first semiconductor substrate side; The semiconductor device according to (16) above.
  • An electronic device equipped with a semiconductor device including a stack of a first semiconductor substrate and a second semiconductor substrate,
  • the first semiconductor substrate is an image sensor that generates charges in response to light from the light incident surface of the first semiconductor substrate; a first memory element provided on a side opposite to the light incident surface with respect to the image sensor; Equipped with The first memory element is having a laminated structure in which a magnetization fixed layer, a nonmagnetic layer, and a storage layer are laminated in this order from the light incident surface side; Electronics.
  • Imaging device 100 100a First semiconductor substrate 102, 202 Front surface 104, 204 Back surface 110, 210 Connection portion 200, 200a Second semiconductor substrate 300 Imaging element 400, 400a, 400b MTJ element 402 Fixed layer 404 Nonmagnetic Layer 406 Memory layer 420, 420a Selection transistor 500 Insulating film 502 Lower wiring 504 Damascene structure 506 Barrier metal film 508, 512 Electrode 510 MTJ layer 514 Hard mask 516 Protective film 518 Interlayer insulating film 520 Wiring 700 Camera 710 Optical lens 712 Shutter mechanism 714 Drive circuit unit 716 Signal processing circuit unit 900 Smartphone 901 CPU 902 ROM 903 RAM 904 Storage device 905 Communication module 906 Communication network 907 Sensor module 910 Display device 911 Speaker 912 Microphone 913 Input device 914 Bus BL Bit line SL Signal line WL Word line

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Mram Or Spin Memory Techniques (AREA)
  • Hall/Mr Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

第1の半導体基板(100)及び第2の半導体基板(200)の積層を含む半導体装置(10)であって、前記第1の半導体基板は、前記第1の半導体基板の光入射面からの光に応じて電荷を生成する撮像素子(300)と、前記撮像素子に対して前記光入射面とは反対側に設けられる第1のメモリ素子(400)とを備え、前記第1のメモリ素子は、前記光入射面側から、磁化固定層(402)、非磁性層(404)、記憶層(406)の順に積層された積層構造を持つ、半導体装置を提供する。

Description

半導体装置及び電子機器
 本開示は、半導体装置及び電子機器に関する。
 近年、小型化等を目的として、撮像装置は、2つの半導体基板を貼り合わせて構成された3次元構造を持ち、これら半導体基板上には、撮像素子、記憶素子(メモリ素子)、及び、複数トランジスタ等を含む回路が設けられる。
特開2014-220376号公報
 しかしながら、3次元構造を持つ半導体装置(撮像装置)においては、セルサイズや回路規模等が小さく、且つ、特性が良好な記憶素子(メモリ素子)を形成することが難しかった。
 そこで、本開示では、セルサイズや回路規模等が小さく、且つ、良好な特性を持つ記憶素子を有する、3次元構造を持つ半導体装置を容易に形成することが可能な半導体装置及び電子機器を提案する。
 本開示によれば、第1の半導体基板及び第2の半導体基板の積層を含む半導体装置であって、前記第1の半導体基板は、前記第1の半導体基板の光入射面からの光に応じて電荷を生成する撮像素子と、前記撮像素子に対して前記光入射面とは反対側に設けられる第1のメモリ素子とを備え、前記第1のメモリ素子は、前記光入射面側から、磁化固定層、非磁性層、記憶層の順に積層された積層構造を持つ、半導体装置が提供される。
 また、本開示によれば、第1の半導体基板及び第2の半導体基板の積層を含む半導体装置を搭載する電子機器であって、前記第1の半導体基板は、前記第1の半導体基板の光入射面からの光に応じて電荷を生成する撮像素子と、前記撮像素子に対して前記光入射面とは反対側に設けられる第1のメモリ素子とを備え、前記第1のメモリ素子は、前記光入射面側から、磁化固定層、非磁性層、記憶層の順に積層された積層構造を持つ、電子機器が提供される。
比較例に係る撮像装置10aの積層構造の概略を示す説明図である。 比較例に係るMTJ素子400aの積層構造の概略を示す説明図である。 比較例に係るMTJ素子400aの回路構成の概略を示す説明図である。 本開示の実施形態を創作するに至る背景を説明する説明図(その1)である。 本開示の実施形態を創作するに至る背景を説明する説明図(その2)である。 本開示の実施形態を創作するに至る背景を説明する説明図(その3)である。 本開示の実施形態を創作するに至る背景を説明する説明図(その4)である。 本開示の実施形態に係る撮像装置10の積層構造の概略を示す説明図である。 本開示の実施形態に係るMTJ素子400の積層構造の概略を示す説明図である。 本開示の実施形態に係るMTJ素子400の製造方法の一工程における断面図(その1)である。 本開示の実施形態に係るMTJ素子400の製造方法の一工程における断面図(その2)である。 本開示の実施形態に係るMTJ素子400の製造方法の一工程における断面図(その3)である。 本開示の実施形態に係るMTJ素子400の製造方法の一工程における断面図(その4)である。 本開示の実施形態に係る撮像装置10の製造方法の一工程における断面図である。 本開示の実施形態に係るメモリ領域の変形例を示す説明図である。 本開示の実施形態に係るメモリ領域の回路の一例を示す説明図である。 本開示の実施形態の変形例に係る撮像装置10の構成を示す説明図(その1)である。 本開示の実施形態の変形例に係る撮像装置10の構成を示す説明図(その2)である。 本開示の実施形態の変形例に係る撮像装置10の制御例を示す説明図(その1)である。 本開示の実施形態の変形例に係る撮像装置10の制御例を示す説明図(その2)である。 本開示の実施形態の変形例に係る撮像装置10の制御例を示す説明図(その3)である。 本開示の実施形態の変形例に係るMTJ素子400の回路構成例を示す説明図(その1)である。 本開示の実施形態の変形例に係るMTJ素子400の回路構成例を示す説明図(その2)である。 カメラの概略的な機能構成の一例を示す説明図である。 スマートフォンの概略的な機能構成の一例を示すブロック図である。 車両制御システムの構成例を示すブロック図である。 センシング領域の例を示す図である。
 以下に、添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 また、以下の説明で参照される図面は、本開示の一実施形態の説明とその理解を促すための図面であり、わかりやすくするために、図中に示される形状や寸法、比などは実際と異なる場合がある。さらに、図中に示される撮像装置は、以下の説明と公知の技術を参酌して適宜、設計変更することができる。
 以下の説明における具体的な長さや形状についての記載は、数学的に定義される数値と同一の値や幾何学的に定義される形状だけを意味するものではない。詳細には、以下の説明における具体的な長さや形状についての記載は、撮像装置(半導体装置)、MTJ、及びこれらの製造工程、及び、その使用・動作において許容される程度の違い(誤差・ひずみ)がある場合やその形状に類似する形状をも含むものとする。
 また、以下の回路(電気的な接続)の説明においては、特段の断りがない限りは、「電気的に接続」とは、複数の要素の間を電気(信号)が導通するように接続することを意味する。加えて、以下の説明における「電気的に接続」には、複数の要素を直接的に、且つ、電気的に接続する場合だけでなく、他の要素を介して間接的に、且つ、電気的に接続する場合も含むものとする。
 なお、説明は以下の順序で行うものとする。
1. 本開示の実施形態を創作するに至る背景
   1.1 撮像装置
   1.2 MTJ素子
   1.3 背景
2. 本開示の実施形態
   2.1 詳細構成
   2.2 製造方法
   2.3 応用例
3. まとめ
4. 適用例
   4.1 カメラへの適用例
   4.2 スマートフォンへの適用例
   4.3 移動装置制御システムへの適用例
5. 補足
 <<1. 本開示の実施形態を創作するに至る背景>>
 <1.1 撮像装置>
 本開示の実施形態を説明する前に、本発明者が本開示の実施形態を創作するに至る背景について説明する。まずは、図1を参照して、比較例に係る撮像装置10aの積層構造を説明する。図1は、比較例に係る撮像装置10aの積層構造の概略を示す説明図である。なお、ここで、比較例とは、本発明者が本開示の実施形態をなす前に、検討を重ねていた撮像装置10aやその要部構造のことを意味するものとする。
 図1に示すように、比較例に係る撮像装置10aは、2つの半導体基板(第1の半導体基板100a、第2の半導体基板200a)を貼り合わせて構成された3次元構造の撮像装置である。詳細には、撮像装置10aは、フォトダイオード(撮像素子)300を有する第1の半導体基板100aの裏面(光入射面)104側から光が入射する、裏面照射型撮像装置であるものとする。
 具体的には、第1の半導体基板100aには、平面上に二次元配列する複数の撮像素子300からなる画素領域が設けられている。撮像素子300は、第1の半導体基板100aの裏面(光入射面)104からの光に応じて、電荷を生成することができるフォトダイオードであり、複数の画素トランジスタ(図示省略)からなる画素回路に電気的に接続される。当該画素回路は、第1の半導体基板100aに設けられ、フォトダイオード300で発生した電荷を、転送トランジスタ(図示省略)を介して画素信号として読み出し、あるいは、フォトダイオード300をリセットすることができる。
 なお、比較例においては、撮像装置10aは、第1の半導体基板100aと第2の半導体基板200aとの間に挿入される半導体基板(図示省略)を有していてもよく、当該半導体基板に、上記画素回路が設けられていてもよい。
 また、第2の半導体基板200aには、例えば、複数の撮像素子300を制御したり、複数の撮像素子300からの信号を処理したりするために、入力部、行駆動部、タイミング制御部、列信号処理部、画像信号処理部及び出力部等のロジック回路が設けられる。さらに、第2の半導体基板200aには、平面上に二次元配列する複数のMTJ(Magnetic Tunnel Junction)素子(メモリ素子)400aからなるメモリ領域が設けられている。当該メモリ領域には、画像信号処理部で用いる信号や処理された信号が格納される。なお、比較例に係るMTJ素子400aの詳細構成については、後述する。
 さらに、第1の半導体基板100aと第2の半導体基板200aとは、第1の半導体基板100aの表面102と、第2の半導体基板200aの表面202とが互いに向かい合い、接合する。詳細には、第1の半導体基板100aと第2の半導体基板200aとは、例えば、貫通電極(図示省略)により電気的に接続されることができる。また、第1の半導体基板100a及び第2の半導体基板200aは、第1の半導体基板100aと第2の半導体基板200aとを電気的に接続する接続部110、210を有する。具体的には、当該接続部110、210は、導電材料で形成された電極により形成され、これら接続部110、210を直接接合することにより、第1の半導体基板100aと第2の半導体基板200aとを電気的に接続し、第1の半導体基板100aと第2の半導体基板200aとの信号の入力、及び/又は、出力を可能にする。上記導電材料は、例えば、銅(Cu)、アルミニウム(Al)、金(Au)等の金属材料で形成される。
 <1.2 MTJ素子>
 次に、上述した第2の半導体基板200aに設けられるMTJ素子400aについて、図2及び図3を参照して説明する。図2は、比較例に係るMTJ素子400aの積層構造の概略を示す説明図であり、詳細には、図1の断面図におけるMTJ素子400aの拡大図であり、図2の上側が第2の半導体基板200aの表面202となり、図2の下側が第2の半導体基板200aの裏面204となる。また、図3は、比較例に係るMTJ素子400aの回路構成の概略を示す説明図である。
 MRAM(Magnetic Random Access Memory)は、MRAMの有する磁気記憶素子の磁性体の磁化状態を変化させることにより、電気抵抗が変化することを利用して、情報の記憶を行う。従って、磁化状態の変化によって決定される上記磁気記憶素子の抵抗状態、詳細には、磁気記憶素子の電気抵抗の大小を判別することにより、記憶された情報を読み出すことができる。このようなMRAMは、高速動作が可能でありつつ、ほぼ無限(1015回以上)の書き換えが可能であり、さらには信頼性も高い。
 図2及び図3を参照して、MRAMの磁気記憶素子であるMTJ素子400aの基本構造について説明する。例えば、MTJ素子400aは、1つの情報(1/0)を記憶する磁気記憶素子である。MTJ素子400aの上下には、互いに直交するアドレス用の配線(すなわち、ワード線及びビット線)(図示省略)が設けられ、MTJ素子400aは、これら配線の交点付近にてワード線及びビット線と接続される。
 詳細には、図2に示すように、MTJ素子400aは、下地層(図示省略)の上に、所定の方向に磁気モーメントが固定された固定層(磁化固定層)402と、非磁性層404と、磁気モーメントの向きが可変である記憶層406と、キャップ層(図示省略)とが順次積層されている構造を持つ。言い換えると、MTJ素子400aは、一番下に固定層(Pin層)402が位置するボトムPin構造である。一般的に、MTJ素子400aの記憶特性が加工により劣化することを避けるため、固定層402を一番下に位置させることが好ましい。従って、比較例においては、第2の半導体基板200aの、第1の半導体基板100aと対向する表面202を上にした場合、MTJ素子400aの一番下の層は、固定層402となる。
 固定層402は、強磁性体材料を含む磁性体によって形成され、高い保磁力等によって、磁気モーメントの方向が固定されている。非磁性層404は、酸化マグネシウム(MgO)等の各種の非磁性体等から形成され、固定層402と記憶層406との間に設けられる。記憶層406は、強磁性体材料を含む磁性体によって形成され、記憶する情報に対応して磁気モーメントの方向が変化する。さらに、下地層及びキャップ層は、電極、結晶配向性の制御膜、保護膜等として機能する。MTJ素子400aにおいては、MTJ素子400aに電圧を印加して、記憶層406の磁気モーメントの方向を変化させることにより、固定層402の磁気モーメントの方向との違いにより、MTJ素子400a全体の抵抗値が変化する。詳細には、固定層402と記憶層406との磁気モーメントの方向が同じである場合には、MTJ素子400aに抵抗値が低くなり、固定層402と記憶層406との磁気モーメントの方向が異なる場合には、MTJ素子400aに抵抗値が高くなる。そして、MTJ素子400aは、このような磁気モーメントの変化による抵抗値の変化を利用して、情報の記憶を行うことできる。
 また、図2においては図示が省略されているが、MTJ素子400aは、上部電極(第1の電極)と下部電極(図示省略)とによって挟まれており、これら電極を介してワード線、ビット線、信号線、及び選択トランジスタ420(図3参照)等と電気的に接続される。
 詳細には、図3に示すように、MTJ素子400aの固定層(磁化固定層)402は、下部電極(図示省略)及び選択トランジスタ420を介してワード線WL及び信号線SLと電気的に接続され、MTJ素子400aの記憶層406は、上部電極(図示省略)を介してビット線BLと電気的に接続される。これにより、選択トランジスタ420によって選択されたMTJ素子400aにおいて、信号線SL及びビット線BLを介して、MTJ素子400aの下部電極と上部電極との間に電圧が印加され、当該MTJ素子400aの記憶層406に対する情報の書き込み及び読み出しが行われることとなる。
 <1.3 背景>
 図4から図7を参照して、これまでの比較例の撮像装置10aを踏まえて、本発明者が本開示の実施形態を創作するに至る背景について説明する。図4から図7は、本開示の実施形態を創作するに至る背景を説明する説明図である。
 ところで、MTJ素子400aの特性により、MTJ素子400aに印加される電圧とデータ書き込み時のエラーレートと関係は、図4に示される3つのパターンが想定される。なお、図4においては、横軸は、MTJ素子400aに印加される電圧を示し、縦軸は、データ書き込みのエラーレートを示す。さらに、図4においては、MTJ素子400への印加電圧を-1から0にした際には、信号線SLからビット線BLに向かって書き込み電流が流れ、印加電圧を0から1にした際には、ビット線BLから信号線SLに向かって書き込み電流が流れることとなる。
 図4に示される3つのパターンのうち、理想的には、MTJ素子400aは、印加される電圧幅の中で十分にエラーレートを下げることができる、中央に示されるパターンとなることが好ましい。詳細には、MTJ素子400aに所定の電圧(-1、1)を印加した場合に、十分に低いエラーレート(1e-10)となるような特性を持つMTJ素子400aが好ましい。しかしながら、MTJ素子400aを構成する材料の特性や、量産におけるMTJ素子400a等の出来栄えのばらつきを考慮すると、中央に示されるパターンとなるような特性を持つMTJ素子400aを得ることが難しい。
 具体的には、図4の左側に示されるパターンの場合には、信号線SLからビット線BLに向かって書き込み電流を流す際に、所定の電圧(-1)を印加しても、十分に低いエラーレート(1e-10)とならない。この場合、MTJ素子400aは選択トランジスタ420とソース接続となるため(図3参照)、ワード線WL及び信号線SLの電圧を上げたとしても、選択トランジスタ420の電流駆動能力が低いため、MTJ素子400aに十分な電圧を印加することが難しい。
 一方、図4の右側に示されるパターンの場合には、ビット線BLから信号線SLに向かって書き込み電流を流す際に、所定の電圧(1)を印加しても、十分に低いエラーレート(1e-10)とならない。この場合、MTJ素子400aは選択トランジスタ420とドレイン接続となり(図3参照)、選択トランジスタ420の電流駆動能力が高いため、ワード線WL及び信号線SLの電圧を上げることで、MTJ素子400aに十分な電圧を印加することが容易である。
 そこで、図4の左側に示されるパターンを避けるべく、例えば、図5に示されるように、MTJ素子400aの配線接続を切り替えることが考えられる。詳細には、MTJ素子400aの固定層402は、選択トランジスタ420を介してビッチ線BLと電気的に接続し、MTJ素子400aの記憶層406は、信号線SLと電気的に接続する。しかしながら、図5の例では、配線等を引き回すこととなるため、MTJ素子400aやそれに接続される回路のサイズが大きくなってしまうことが避けられない。
 また、例えば、図6に示されるように、選択トランジスタをp型MOSトランジスタ420aに変更することで、MTJ素子400aと選択トランジスタ420aとの接続形式を変更することが考えられる。しかしながら、p型MOSトランジスタ420aは、電流駆動能力が低いため、セルサイズを大きくする必要がある。従って、図6の例でも、MTJ素子400aに接続される回路のサイズが大きくなってしまうことが避けられない。
 さらに、例えば、図7に示されるように、MTJ素子400aを、トップPin構造のMTJ素子400bに変更することが考えられる。具体的には、当該MTJ素子400bは、図7に示されるように、記憶層406と、非磁性層404と、固定層402とが順次積層されている構造を持つ。このようにすることで、信号線SLからビット線BLに向かって書き込み電流を流す際に、選択トランジスタ420の電流駆動能力が低くなるソース接続であっても、MTJ素子400bの抵抗値が低い(磁気モーメントの方向が同じ)ことからMTJ素子400bに電流が流れやすくなる。その結果、MTJ素子400bに十分な電圧を印加することが容易となる。
 しかしながら、記憶層406と、非磁性層404と、固定層402とが順次積層されているトップPin構造では、MTJ素子400bの加工時に、固定層402にダメージを与えやすくなり、所望の記憶特性を持つMTJ素子400bが得られないことが考えられる。
 そこで、本発明者は、このような状況を鑑みて、固定層402にダメージを与えることを避けつつ、セルサイズや回路規模等が小さく、且つ、所定の印加電圧においてエラーレートが十分に低いMTJ素子400を有する撮像装置10を容易に形成することが可能な本開示の実施形態を創作するに至った。以下、本発明者が創作した本開示の実施形態の詳細を順次説明する。
 なお、以下の説明においては、本開示の実施形態を撮像装置10に適用した場合を例に説明するが、本実施形態は、撮像装置10に適用することに限定されるものではなく、積層構造を持つ半導体装置であれば適用することが可能である。
 <<2. 本開示の実施形態>>
 <2.1 詳細構成>
 まずは、図8及び図9を参照して、本開示の実施形態に係る撮像装置(半導体装置)10及びMTJ素子400の詳細構成を説明する。図8は、本実施形態に係る撮像装置10の積層構造の概略を示す説明図である。また、図9は、本実施形態に係るMTJ素子400の積層構造の概略を示す説明図であり、詳細には、図8の断面図におけるMTJ素子400の拡大図であり、図9の上側が第1の半導体基板100の裏面104となり、図9の下側が第1の半導体基板100の表面102となる。
 (撮像装置)
 図8に示すように、本実施形態に係る撮像装置10は、比較例と同様に、2つの半導体基板(第1の半導体基板100、第2の半導体基板200)を貼り合わせて構成された3次元構造の撮像装置である。詳細には、撮像装置10は、フォトダイオード(撮像素子)300を有する第1の半導体基板100の裏面(光入射面)104側から光が入射する、裏面照射型撮像装置であるものとする。
 具体的には、第1の半導体基板100には、比較例と同様に、平面上に二次元配列する複数の撮像素子300からなる画素領域が設けられている。撮像素子300は、第1の半導体基板100の裏面(光入射面)104からの光に応じて、電荷を生成することができるフォトダイオードであり、複数の画素トランジスタ(図示省略)からなる画素回路に電気的に接続される。
 さらに、本実施形態においては、比較例と異なり、第1の半導体基板100には、平面上に二次元配列する複数のMTJ(Magnetic Tunnel Junction)素子(第1のメモリ素子)400からなるメモリ領域が設けられている。当該メモリ領域は、上述の画素領域に対して、第1の半導体基板100の裏面104と反対側に位置する表面102側に設けられる。また、当該メモリ領域には、画像信号処理部で用いる信号や処理された信号が格納される。なお、本実施形態に係るMTJ素子400の詳細構成については、後述する。
 また、本実施形態においても、比較例と同様に、第2の半導体基板200には、例えば、複数の撮像素子300を制御したり、複数の撮像素子300からの信号を処理したりするために、入力部、行駆動部、タイミング制御部、列信号処理部、画像信号処理部及び出力部等のロジック回路が設けられる。
 さらに、本実施形態においても、第1の半導体基板100と第2の半導体基板200とは、第1の半導体基板100の表面102と、第2の半導体基板の表面202とが互いに向かい合い、接合する。詳細には、第1の半導体基板100と第2の半導体基板200とは、例えば、貫通電極(図示省略)により電気的に接続されることができる。また、第1の半導体基板100及び第2の半導体基板200は、第1の半導体基板100と第2の半導体基板200とを電気的に接続する接続部(接合電極)110、210を有する。具体的には、当該接続部110、210は、導電材料で形成された電極により形成され、これら接続部110、210を直接接合することにより、第1の半導体基板100と第2の半導体基板200とを電気的に接続し、第1の半導体基板100と第2の半導体基板200との信号の入力、及び/又は、出力を可能にする。上記導電材料は、例えば、銅(Cu)、アルミニウム(Al)、金(Au)等の金属材料で形成される。
 (MTJ素子)
 図9に示すように、本実施形態に係るMTJ素子400は、下地層(図示省略)の上に、磁気モーメントの向きが可変である記憶層406と、非磁性層404と、所定の方向に磁気モーメントが固定された固定層(磁化固定層)402とが順次積層されている構造を持つ。すなわち、本実施形態に係るMTJ素子400は、比較例に係るMTJ素子400aとは異なる順番で積層されており、一番上に固定層(Pin層)402が位置するトップPin構造である。先に説明したように、一般的には、MTJ素子400の記憶特性が加工により劣化することを避けるため、固定層402を一番下に位置させることが好ましいとされている。これに対して、本実施形態においては、MTJ素子400は一番上に固定層(Pin層)402が位置するトップPin構造を選択している。
 また、図9においては図示が省略されているが、MTJ素子400は、比較例と同様に、上部電極(第1の電極)(図示省略)と下部電極(第2の電極)(図示省略)とによって挟まれており、これら電極を介してワード線、ビット線、信号線、及び選択トランジスタ420等と電気的に接続される。詳細には、MTJ素子400の記憶層406は、下部電極(図示省略)、及び、n型MOS(Metal-Oxide-Semiconductor)トランジスタからなる選択トランジスタ420を介してワード線WL及び信号線SLと電気的に接続され、MTJ素子400の固定層(磁化固定層)402は、上部電極(図示省略)を介してビット線BLと電気的に接続される(図7に示すMTJ素子400bと同様)。これにより、選択トランジスタ420によって選択されたMTJ素子400において、ワード線WL及びビット線BLを介して、MTJ素子400の下部電極と上部電極との間に電圧が印加され、当該MTJ素子400の記憶層406に対する情報の書き込み及び読み出しが行われることとなる。
 本実施形態においては、トップPin構造のMTJ素子400を設けることにより、信号線SLからビット線BLに向かって書き込み電流を流す際に、選択トランジスタ420の電流駆動能力が低くなるソース接続であっても、MTJ素子400の抵抗値が低い(磁気モーメントの方向が同じ)ことからMTJ素子400に電流が流れやすくなる。従って、MTJ素子400に十分な電圧を印加することが容易となり、所定の印加電圧においてエラーレートが十分に低くなる。
 さらに、詳細には、図9に示すように、MTJ素子400の積層方向に沿って切断した断面は、台形状であり、当該台形の第1の半導体基板100の裏面(光入射面)104側に位置する上底の長さは、当該台形の下底に比して長くなっている。なお、本実施形態においては、MTJ素子400の断面形状は、加工の関係で台形状になっているものとて説明しているが、これに限定されるものではない。例えば、MTJ素子400の断面形状は、矩形であってもよく、又は、第1の半導体基板100の裏面(光入射面)104側に位置する上底の長さは、当該台形の下底に比して短くなっているような台形状であってもよい。
 また、本実施形態においても、比較例と同様に、固定層402は、強磁性体材料を含む磁性体によって形成され、高い保磁力等によって、磁気モーメントの方向が固定されている。非磁性層404は、酸化マグネシウム(MgO)等の各種の非磁性体等から形成され、固定層402と記憶層406との間に設けられる。記憶層406は、強磁性体材料を含む磁性体によって形成され、記憶する情報に対応して磁気モーメントの方向が変化する。
 <2.2 製造方法>
 (MTJ素子)
 次に、図10Aから図10Dを参照して、本実施形態に係るMTJ素子400の製造方法を説明する。図10Aから図10Dは、本実施形態に係るMTJ素子400の製造方法の一工程における断面図である。なお、これら図においては、本実施形態の要部のみを示し、わかりやすくするために他の要素等の図示を省略している。
 まずは、図10Aの上段に示すように、絶縁膜500中に下部配線502が設けられた基板を準備し、図10Aの上から2段目に示すように、下部配線502と電気的に接続するダマシン構造(溝に金属材料を埋め込んだ構造)504を形成する。
 そして、図10Aの上から3段目に示すように、ダマシン構造504及び絶縁膜500上に、バリアメタル膜506を形成する。次に、図10Aの上から4段目に示すように、バリアメタル膜506上に、電極508を形成する。さらに、図10Aの下段に示すように、電極508上に、本実施形態に係るMTJ素子400を構成するMTJ層510を形成する。詳細には、MTJ層510は、固定層402、非磁性層404、記憶層406の順で、電極508上に形成される。
 まずは、図10Bの上段に示すように、MTJ層510上に、電極512が形成される。次に、図10Bの上から2段目に示すように、電極512上に、ハードマスク514を形成する。
 そして、図10Bの上から3段目に示すように、リソグラフィ等の手段を用いて、ハードマスク514を所定のパターンに加工する。さらに、図10Bの下段に示すように、ハードマスク514のパターンに従って、MTJ層510及び電極508、512をエッチングによる加工し、MTJ素子400を形成する。
 次に、図10Cの上段に示すように、MTJ素子400及びバリアメタル膜506を覆うように、絶縁材料からなる保護膜516を形成する。次に、図10Cの上から2段目に示すように、保護膜516がMTJ素子400の上面及び側面のみを覆うように、保護膜516を除去する。さらに、図10Cの下段に示すように、MTJ素子400の下側にのみバリアメタル膜506が残るように、バリアメタル膜506を除去する。
 次に、図10Dの上段に示すように、MTJ素子400及び絶縁膜500を覆うように、層間絶縁膜518を形成する。さらに、層間絶縁膜518の上面がMTJ素子400の上面と面一になるように、CMP(Chemical Mechanical Polishing)等の手法を用いて、層間絶縁膜518を平坦化する。そして、図10の下段に示すように、層間絶縁膜518内に配線520を形成する。このようにして、本実施形態に係るMTJ素子400を形成することができる。
 (撮像装置)
 さらに、図11を参照して、本実施形態に係る撮像装置10の製造方法を説明する。図11は、本実施形態に係る撮像装置10の製造方法の一工程における断面図である。
 まずは、図11の上段に示すように、上述したようにMTJ素子400が形成された第1の半導体基板100を準備する。次に、図11の上から2段目に示すように、第1の半導体基板100の上下を反転させる。さらに、図11の下段に示すように、反転させた第1の半導体基板100と、ロジック回路が設けられた第2の半導体基板とを接合し、撮像装置10の上面にカラーフィルタやオンチップレンズ等を形成することにより、撮像装置10が形成される。
 このように、本実施形態においては、トップPin構造のMTJ素子400を設けた場合であっても、MTJ素子400を形成する際には、固定層402、非磁性層404、記憶層406の順で積層することから、MTJ素子400の加工時に、固定層402にダメージを与えることを避けることができる。従って、所望の記憶特性を持つMTJ素子400を容易に得ることができる。加えて、本実施形態においては、MTJ素子400を、ロジック回路が設けられる第2の半導体基板200ではなく、第1の半導体基板100に設けているため、MTJ素子400は、ロジック回路の配置による制約を受けることなく、且つ、ロジック回路を形成する際にかかる熱や応力の影響を受けることがない。
 さらに、本実施形態においては、このようなMTJ素子400を第1の半導体基板100に形成した後に、上下反転させて、第2の半導体基板200と接合することから、MTJ素子400は、従来のボトムPin構造と同じように第2の半導体基板200のロジック回路と接続することができる。
 以上のように、本実施形態によれば、固定層402にダメージを与えることを避けつつ、セルサイズや回路規模等が小さく、且つ、所定の印加電圧においてエラーレートが十分に低いMTJ素子400を有する撮像装置10を容易に形成することができる。言い換え得ると、本実施形態によれば、セルサイズや回路規模等が小さく、且つ、良好な特性を持つMTJ素子400を有する、3次元構造を持つ撮像装置10を容易に形成することができる。
 <2.3 応用例>
 本実施形態においては、第1の半導体基板100に設けられた複数のMTJ素子400からなるメモリ領域は、様々な記憶素子を含んで構成されてもよい。そこで、このようなメモリ領域の応用例を図12から図20を参照して説明する。図12は、本実施形態に係るメモリ領域の変形例を示す説明図であり、図13は、本実施形態に係るメモリ層の回路の一例を示す説明図である。また、図14及び図15は、本実施形態の変形例に係る撮像装置10の構成を示す説明図であり、図16から図18は、本実施形態の変形例に係る撮像装置10の制御例を示す説明図である。さらに、図19及び図20は、本開示の実施形態の変形例に係るMTJ素子400の回路構成例を示す説明図である。
 図12に示すように、本実施形態に係るメモリ領域は、書き込み速度、許容される書き込み回数、消費電力、回路規模、記憶密度等に応じて、様々な記憶素子によって構成されてもよい。例えば、本実施形態に係るメモリ領域は、不揮発性記憶素子としてのMTJ素子400からなる不揮発MRAM(図12中では「不揮発」とも示す)を含んでいてもよい。さらに、不揮発性記憶素子には、非磁性層404が破壊されることにより、1回しか書き込みができないOTP(One Time Programmable)記憶素子が含まれていてもよい(図12中では、「MRAMOTP」又は「MOTP」とも示す)。また、例えば、本実施形態に係るメモリ領域は、揮発性記憶素子としてのMTJ素子400を含んでいてもよい。さらに、本実施形態に係るメモリ領域は、ロジック回路を含んでいてもよい。例えば、本実施形態に係るメモリ領域は、揮発性記憶素子を有するSRAM(Static Random Access Memory)を含んでいてもよい(図12中では、「SRAM置換MRAM」又は「S置換」とも示す)。また、メモリ領域は、不揮発性記憶素子としてのMTJ素子400と双安定記憶回路(不揮発性ロジック回路)とを含むNVPG(Nonvolatile Power Gating)であってもよく、電源を遮断してもデータを保持することができる。
 詳細には、NVPGは、例えば、図13に示すような回路で構成され、ロジック回路のラッチ部に不揮発性素子としてのMTJ素子400を電気的に接続した構成を持つ。NVPGにおいては、電源の遮断時にはラッチ部に書き込まれたデータをMTJ素子400に書き込み、電源と接続した際には、MTJ素子400のデータをラッチ部に戻すことができ、消費電力を低く抑えることができる。
 これまで説明した実施形態においては、半導体基板(第1の半導体基板)100にのみMTJ素子400が設けられているものとして説明したが、本開示の実施形態においては、2つの半導体基板(第1の半導体基板、第2の半導体基板)100、200ともに、MTJ素子400が設けられていてもよい。
 例えば、図14に示すように、半導体基板200は、複数のMTJ素子(第2のメモリ素子)400aを有していてもよい。詳細には、半導体基板100に設けられたMTJ素子400と、半導体基板200に設けられたMTJ素子400aとは、選択トランジスタの片側の端子に、直列に接続される。ここでは、互いに直列接続する1つのMTJ素子400と1つのMTJ素子400aとメモリ素子対と呼ぶ。さらに、図14の例では、複数のメモリ素子対が、撮像装置10に設けられており、これら複数のメモリ素子対は、互いに抵抗値が異なるように形成されており、言い換えると、撮像装置10は、多値のメモリ素子を有している。
 また、例えば、図15に示すように、半導体基板100に設けられたMTJ素子400と、半導体基板200に設けられたMTJ素子400aとは、選択トランジスタを介して直列に接続されてもよい。
 さらに、図14及び図15に示すように、半導体基板200に設けられたMTJ素子400aは、ボトムPin構造を持つことが好ましい。詳細には、MTJ素子400aは、半導体基板100基板側から、磁気モーメントの向きが可変である記憶層406と、非磁性層404と、所定の方向に磁気モーメントが固定された固定層(磁化固定層)402とが、当該順番で積層された積層構造を持つことが好ましい。
 また、図16から図18に示すように、半導体基板100に設けられたMTJ素子400と、半導体基板200に設けられたMTJ素子400aとは、2つの選択トランジスタにより挟まれるように、接続してもよい。具体的には、図16から図18に示す例では、各選択トランジスタをON/OFFすることにより、読み出すMTJ素子400、400aを制御して、各MTJ素子400、400aの抵抗値をアナログ値として読出トランジスタにより読み出してもよい。例えば、図16及び図17に示すように、1つまたは複数のMTJ素子400から読み出してもよく、言い換えると、一方の半導体基板に設けられたMTJ素子から読み出すようにしてもよい。また、図18に示すように、MTJ素子400及びMTJ素子400aの両方から読み出してもよい。
 なお、図16から図18に示す例では、半導体基板100には、不揮発性記憶素子であるトップPin構造のMTJ素子400が設けられていてもよく、半導体基板200には、SRAM(Static Random Access Memory)置換、ボトムPin構造のMTJ素子400aが設けられていてもよい、もしくは、半導体基板100と半導体基板200とで、メモリ素子の種類を入れ替えてもよい。
 また、本開示の実施形態においては、図19及び図20に示すように、MTJ素子400は、読出トランジスタ及び書込トランジスタと電気的に接続されてもよい。詳細には、図19及び図20に示すように、書込トランジスタは、ゲート酸化膜を厚くすることで高電圧が印加されても破壊されることがない、高耐圧トランジスタ(HV Tr)であることが好ましい。一方、読出トランジスタは、上記書込トランジスタに比べてゲート酸化膜が薄く、低電圧であっても電流を多く流すことができる低耐圧トランジスタ(LV Tr)であることが好ましい。なお、読出トランジスタには、読み出しエラーの増加が抑えられるような方向に電流を流すことが好ましい。
 <<3. まとめ>>
 以上のように、本開示の実施形態によれば、固定層402にダメージを与えることを避けつつ、セルサイズや回路規模等が小さく、且つ、所定の印加電圧においてエラーレートが十分に低いMTJ素子400を有する撮像装置10を容易に形成することができる。言い換え得ると、本実施形態によれば、セルサイズや回路規模等が小さく、且つ、良好な特性を持つMTJ素子400を有する、3次元構造を持つ撮像装置10を容易に形成することができる。
 上述した本開示の実施形態においては、裏面照射型CMOSイメージセンサ構造に適用した場合について説明したが、本開示の実施形態はこれに限定されるものではなく、他の半導体装置の構造に適用されてもよい。
 また、本開示の実施形態に係る撮像装置10やMTJ素子400は、一般的な半導体装置の製造に用いられる、方法、装置、及び条件を用いることで製造することが可能である。すなわち、本実施形態に係る撮像装置10やMTJ素子400は、既存の半導体装置の製造工程を用いて製造することが可能である。
 なお、上述の方法としては、例えば、PVD(Physical Vapor Deposition)法、CVD(Chemical Vapor Deposition)法及びALD(Atomic Layer Deposition)法等を挙げることができる。PVD法としては、真空蒸着法、EB(電子ビーム)蒸着法、各種スパッタリング法(マグネトロンスパッタリング法、RF(Radio Frequency)-DC(Direct Current)結合形バイアススパッタリング法、ECR(Electron Cyclotron Resonance)スパッタリング法、対向ターゲットスパッタリング法、高周波スパッタリング法等)、イオンプレーティング法、レーザーアブレーション法、分子線エピタキシー法(MBE(Molecular Beam Epitaxy)法)、レーザー転写法を挙げることができる。また、CVD法としては、プラズマCVD法、熱CVD法、有機金属(MO)CVD法、光CVD法を挙げることができる。さらに、他の方法としては、電解メッキ法や無電解メッキ法、スピンコート法;浸漬法;キャスト法;マイクロコンタクトプリント法;ドロップキャスト法;スクリーン印刷法やインクジェット印刷法、オフセット印刷法、グラビア印刷法、フレキソ印刷法といった各種印刷法;スタンプ法;スプレー法;エアドクタコーター法、ブレードコーター法、ロッドコーター法、ナイフコーター法、スクイズコーター法、リバースロールコーター法、トランスファーロールコーター法、グラビアコーター法、キスコーター法、キャストコーター法、スプレーコーター法、スリットオリフィスコーター法、カレンダーコーター法といった各種コーティング法を挙げることができる。さらに、パターニング法としては、シャドーマスク、レーザー転写、フォトリソグラフィー等の化学的エッチング、紫外線やレーザー等による物理的エッチング等を挙げることができる。加えて、平坦化技術としては、CMP法、レーザー平坦化法、リフロー法等を挙げることができる。
 <<4. 適用例>>
 <4.1 カメラへの適用例>
 本開示に係る技術(本技術)は、さらに様々な製品へ適用することができる。例えば、本開示に係る技術は、カメラ等に適用されてもよい。そこで、図21を参照して、本技術を適用した電子機器としての、カメラ700の構成例について説明する。図21は、本開示に係る技術(本技術)が適用され得るカメラ700の概略的な機能構成の一例を示す説明図である。
 図21に示すように、カメラ700は、撮像装置10、光学レンズ710、シャッタ機構712、駆動回路ユニット714、及び、信号処理回路ユニット716を有する。光学レンズ710は、被写体からの像光(入射光)を撮像装置10の撮像面上に結像させる。これにより、撮像装置10の撮像素子300内に、一定期間、信号電荷が蓄積される。シャッタ機構712は、開閉することにより、撮像装置10への光照射期間及び遮光期間を制御する。駆動回路ユニット714は、撮像装置10の信号の転送動作やシャッタ機構712のシャッタ動作等を制御する駆動信号をこれらに供給する。すなわち、撮像装置10は、駆動回路ユニット714から供給される駆動信号(タイミング信号)に基づいて信号転送を行うこととなる。信号処理回路ユニット716は、各種の信号処理を行う。例えば、信号処理回路ユニット716は、信号処理を行った映像信号を例えばメモリ等の記憶媒体(図示省略)に出力したり、表示部(図示省略)に出力したりする。
 以上、カメラ700の構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
 <4.2 スマートフォンへの適用例>
 例えば、本開示に係る技術は、スマートフォン等に適用されてもよい。そこで、図22を参照して、本技術を適用した電子機器としての、スマートフォン900の構成例について説明する。図22は、本開示に係る技術(本技術)が適用され得るスマートフォン900の概略的な機能構成の一例を示すブロック図である。
 図22に示すように、スマートフォン900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、及びRAM(Random Access Memory)903を含む。また、スマートフォン900は、ストレージ装置904、通信モジュール905、及びセンサモジュール907を含む。さらに、スマートフォン900は、撮像装置10、表示装置910、スピーカ911、マイクロフォン912、入力装置913、及びバス914を含む。また、スマートフォン900は、CPU901に代えて、又はこれとともに、DSP(Digital Signal Processor)等の処理回路を有してもよい。
 CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、又はストレージ装置904等に記録された各種プログラムに従って、スマートフォン900内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。CPU901、ROM902、及びRAM903は、バス914により相互に接続されている。また、ストレージ装置904は、スマートフォン900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置904は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス等により構成される。このストレージ装置904は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種のデータ等を格納する。
 通信モジュール905は、例えば、通信ネットワーク906に接続するための通信デバイスなどで構成された通信インタフェースである。通信モジュール905は、例えば、有線又は無線LAN(Local Area Network)、Bluetooth(登録商標)、WUSB(Wireless USB)用の通信カード等であり得る。また、通信モジュール905は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。通信モジュール905は、例えば、インターネットや他の通信機器との間で、TCP(Transmission Control Protocol)/IP(Internet Protocol)等の所定のプロトコルを用いて信号等を送受信する。また、通信モジュール905に接続される通信ネットワーク906は、有線又は無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信又は衛星通信等である。
 センサモジュール907は、例えば、モーションセンサ(例えば、加速度センサ、ジャイロセンサ、地磁気センサ等)、生体情報センサ(例えば、脈拍センサ、血圧センサ、指紋センサ等)、又は位置センサ(例えば、GNSS(Global Navigation Satellite System)受信機等)等の各種のセンサを含む。
 撮像装置10は、スマートフォン900の表面に設けられ、スマートフォン900の裏側又は表側に位置する対象物等を撮像することができる。詳細には、撮像装置10は、本開示に係る技術(本技術)が適用され得る。さらに、撮像装置10は、撮像レンズ、ズームレンズ、及びフォーカスレンズ等により構成される光学系機構(図示省略)及び、上記光学系機構の動作を制御する駆動系機構(図示省略)をさらに有することができる。そして、上記撮像装置10は、対象物からの入射光を光学像として集光し、結像された光学像を撮像素子(画素)300単位で光電変換し、変換により得られた信号を撮像信号として読み出し、画像処理することにより撮像画像を取得することができる。
 表示装置910は、スマートフォン900の表面に設けられ、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等の表示装置であることができる。表示装置910は、操作画面や、上述した撮像装置10が取得した撮像画像などを表示することができる。
 スピーカ911は、例えば、通話音声や、上述した表示装置910が表示する映像コンテンツに付随する音声等を、ユーザに向けて出力することができる。
 マイクロフォン912は、例えば、ユーザの通話音声、スマートフォン900の機能を起動するコマンドを含む音声や、スマートフォン900の周囲環境の音声を集音することができる。
 入力装置913は、例えば、ボタン、キーボード、タッチパネル、マウス等、ユーザによって操作される装置である。入力装置913は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置913を操作することによって、スマートフォン900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 以上、スマートフォン900の構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
 <4.3 移動装置制御システムへの適用例>
 例えば、本開示に係る技術は、移動装置制御システム等に適用されてもよい。そこで、図23を参照して、本開示で提案した技術が適用され得る移動装置制御システムの一例について説明する。図23は、本技術が適用される移動装置制御システムの一例である車両制御システム11の構成例を示すブロック図である。
 車両制御システム11は、車両1に設けられ、車両1の走行支援及び自動運転に関わる処理を行う。
 車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を有する。
 車両制御ECU21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、ドライバモニタリングシステム(DMS)30、ヒューマンマシーンインタフェース(HMI)31、及び、車両制御部32は、通信ネットワーク41を介して相互に通信可能に接続されている。通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったデジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば、近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続されてもよい。
 なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、車両制御ECU21と通信部22が通信ネットワーク41を介して通信を行う場合、単に車両制御ECU21と通信部22とが通信を行うと記載する。
 車両制御ECU21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU21は、車両制御システム11全体又は一部の機能の制御を行うことができる。
 通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行うことができる。このとき、通信部22は、複数の通信方式を用いて通信を行ってもよい。
 ここで、通信部22が実行可能な車外との通信について概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行うことができる。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でデジタル双方向通信が可能な無線通信方式であれば、特に限定されるものではない。
 また、例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末を挙げることができる。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信のことをいう。
 通信部22は、例えば、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラムを外部から受信することができる(Over The Air)。さらに、通信部22は、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また、例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等を挙げることができる。さらに、例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行うこともできる。
 例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信することもできる。
 さらに、通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth(登録商標)、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でデジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でデジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
 ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
 地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方又は両方を蓄積することができる。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
 高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、ADAS(Advanced Driver Assistance System)やAD(Autonomous Driving)に適合させた地図である。
 ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ51、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
 位置情報取得部24は、GNSS(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両1の位置情報を取得することができる。取得した位置情報は、走行支援・自動運転制御部29に供給される。なお、位置情報取得部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。
 外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを有し、各センサからのセンサデータを車両制御システム11の各部に供給することができる。外部認識センサ25が有するセンサの種類や数は、特に限定されるものではない。
 例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を有する。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを有する構成であってもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを有してもよい。外部認識センサ25が有する各センサのセンシング領域の例については、後述する。
 なお、カメラ51の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ51に適用することができる。さらに、カメラ51は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。また、カメラ51に、本開示の実施形態に係る撮像装置10を適用し得る。
 また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを有することができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。
 さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを有する。
 車内センサ26は、車内の情報を検出するための各種のセンサを有し、各センサからのセンサデータを車両制御システム11の各部に供給することができる。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
 例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォン、生体センサのうち1種類以上のセンサを有することができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備えるカメラにも、本開示の実施形態に係る撮像装置10を適用し得る。また、車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。
 車両センサ27は、車両1の状態を検出するための各種のセンサを有し、各センサからのセンサデータを車両制御システム11の各部に供給することができる。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
 例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を有することができる。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを有する。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを有する。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを有する。
 記憶部28は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶することができる。記憶部28は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)及びRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記憶部28は、車両制御システム11の各部が用いる各種プログラムやデータを記憶する。例えば、記憶部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を有し、事故等のイベントの前後の車両1の情報や車内センサ26によって取得された情報を記憶する。
 走行支援・自動運転制御部29は、車両1の走行支援及び自動運転の制御を行うことができる。例えば、走行支援・自動運転制御部29は、分析部61、行動計画部62、及び、動作制御部63を有する。
 分析部61は、車両1及び周囲の状況の分析処理を行うことができる。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を有する。
 自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定することができる。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心を基準とすることができる。
 ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
 なお、自己位置推定部71は、位置情報取得部24により取得される位置情報、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
 センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行うことができる。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等を挙げることができる。
 認識部73は、車両1の外部の状況の検出を行う検出処理、及び、車両1の外部の状況の認識を行う認識処理を実行することができる。
 例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
 具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複することがある。
 例えば、認識部73は、レーダ52又はLiDAR53等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
 例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
 例えば、認識部73は、カメラ51から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部73は、セマンティックセグメンテーション等の認識処理を行うことにより、車両1の周囲の物体の種類を認識してもよい。
 例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。
 例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
 行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成することができる。
 なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、計画した経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)を行う処理も含まれる。
 経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。
 動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御することができる。
 例えば、動作制御部63は、後述する車両制御部32に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部63は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部63は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。
 DMS30は、車内センサ26からのセンサデータ、及び、後述するHMI31に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行うことができる。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。
 なお、DMS30が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
 HMI31は、各種のデータや指示等の入力と、各種のデータの運転者等への提示を行うことができる。
 HMI31によるデータの入力について、概略的に説明する。HMI31は、人がデータを入力するための入力デバイスを有する。HMI31は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI31は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を有する。これに限らず、HMI31は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに有してもよい。さらに、HMI31は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
 HMI31によるデータの提示について、概略的に説明する。HMI31は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI31は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI31は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成及び出力する。また、HMI31は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI31は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成及び出力する。
 HMI31が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI31は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。
 HMI31が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。
 HMI31が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両1の搭乗者が接触する部分に設けられる。
 車両制御部32は、車両1の各部の制御を行うことができる。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を有する。
 ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行うことができる。ステアリングシステムは、例えば、ステアリングホイール等を含むステアリング機構、電動パワーステアリング等を有する。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を有する。
 ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行うことができる。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を有する。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を有する。
 駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行うことができる。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を有する。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を有する。
 ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行うことができる。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を有する。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を有する。
 ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行うことができる。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を有する。
 ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行うことができる。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を有する。
 図24は、図23の外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示す図である。なお、図24において、車両1を上面から見た様子が模式的に示され、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
 センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。
 センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
 センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。
 センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
 センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。
 センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。
 センシング領域120は、LiDAR53のセンシング領域の例を示している。センシング領域120は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域120は、センシング領域103Fより左右方向の範囲が狭くなっている。
 センシング領域120におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。
 センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。センシング領域105は、車両1の前方において、センシング領域120より遠い位置までカバーしている。一方、センシング領域105は、センシング領域120より左右方向の範囲が狭くなっている。
 センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。
 なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図24以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。
 <<5. 補足>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1の半導体基板及び第2の半導体基板の積層を含む半導体装置であって、
 前記第1の半導体基板は、
 前記第1の半導体基板の光入射面からの光に応じて電荷を生成する撮像素子と、
 前記撮像素子に対して前記光入射面とは反対側に設けられる第1のメモリ素子と、
を備え、
 前記第1のメモリ素子は、
 前記光入射面側から、磁化固定層、非磁性層、記憶層の順に積層された積層構造を持つ、
 半導体装置。
(2)
 前記第1のメモリ素子の、積層方向に沿って切断した断面は、台形状であり、
 当該台形の前記光入射面側に位置する上底の長さは、当該台形の下底に比して長い、
 上記(1)に記載の半導体装置。
(3)
 前記第2の半導体基板は、ロジック回路を備える、上記(1)又は(2)に記載の半導体装置。
(4)
 前記第1の半導体基板と前記第2の半導体基板とは、互いにそれぞれ設けられた接合電極により接合される、上記(1)~(3)のいずれか1つに記載の半導体装置。
(5)
 前記接合電極は、銅から形成される、上記(4)に記載の半導体装置。
(6)
 前記第1のメモリ素子は、
 前記積層構造を挟む第1の電極及び第2の電極をさらに有し、
 前記第1の電極は、前記積層構造に対して前記光入射面側に位置し、
 前記第2の電極は、選択トランジスタと電気的に接続される、
 上記(1)~(5)のいずれか1つに記載の半導体装置。
(7)
 前記選択トランジスタは、n型MOSトランジスタである、上記(6)に記載の半導体装置。
(8)
 前記第1のメモリ素子は、読み出しトランジスタ及び書き込みトランジスタに電気的に接続され、
 前記読み出しトランジスタ及び前記書き込みトランジスタのゲート酸化膜の膜厚が互いに異なる、上記(1)~(7)のいずれか1つに記載の半導体装置。
(9)
 前記第1の半導体基板は、
 二次元配列する複数の前記撮像素子からなる画素領域と、
 二次元配列する複数の前記第1のメモリ素子からなるメモリ領域と、
 を備える、
 上記(1)~(8)のいずれか1つに記載の半導体装置。
(10)
 前記複数の第1のメモリ素子の少なくとも一部は、揮発性記憶素子である、上記(9)に記載の半導体装置。
(11)
 前記複数の第1のメモリ素子の少なくとも一部は、不揮発性記憶素子である、上記(9)に記載の半導体装置。
(12)
 前記複数の第1のメモリ素子は、揮発性記憶素子及び不揮発性記憶素子を含む、上記(9)に記載の半導体装置。
(13)
 前記不揮発性記憶素子には、前記非磁性層が破壊されるOTP記憶素子が含まれる、上記(11)又は(12)に記載の半導体装置。
(14)
 前記メモリ領域は、ロジック回路を含む、上記(9)~(13)のいずれか1つに記載の半導体装置。
(15)
 前記第2の半導体基板は、メモリ素子を備えていない、上記(1)~(14)のいずれか1つに記載の半導体装置。
(16)
 前記第2の半導体基板は、複数の第2のメモリ素子を備える、上記(9)~(14)のいずれか1つに記載の半導体装置。
(17)
 前記各第2のメモリ素子は、
 前記第1の半導体基板側から、記憶層、非磁性層、磁化固定層の順に積層された積層構造を持つ、
 上記(16)に記載の半導体装置。
(18)
 前記各第1のメモリ素子と前記各第2のメモリ素子とが、直列接続される、上記(16)又は(17)に記載の半導体装置。
(19)
 直列接続された前記第1のメモリ素子と前記第2のメモリ素子とからなる、複数のメモリ素子対を有し、
 前記複数のメモリ素子対のそれぞれの抵抗値は、互いに異なる、
 上記(18)に記載の半導体装置。
(20)
 第1の半導体基板及び第2の半導体基板の積層を含む半導体装置を搭載する電子機器であって、
 前記第1の半導体基板は、
 前記第1の半導体基板の光入射面からの光に応じて電荷を生成する撮像素子と、
 前記撮像素子に対して前記光入射面とは反対側に設けられる第1のメモリ素子と、
を備え、
 前記第1のメモリ素子は、
 前記光入射面側から、磁化固定層、非磁性層、記憶層の順に積層された積層構造を持つ、
 電子機器。
  10、10a  撮像装置
  100、100a  第1の半導体基板
  102、202  表面
  104、204  裏面
  110、210  接続部
  200、200a  第2の半導体基板
  300  撮像素子
  400、400a、400b  MTJ素子
  402  固定層
  404  非磁性層
  406  記憶層
  420、420a  選択トランジスタ
  500  絶縁膜
  502  下部配線
  504  ダマシン構造
  506  バリアメタル膜
  508、512  電極
  510  MTJ層
  514  ハードマスク
  516  保護膜
  518  層間絶縁膜
  520  配線
  700  カメラ
  710  光学レンズ
  712  シャッタ機構
  714  駆動回路ユニット
  716  信号処理回路ユニット
  900  スマートフォン
  901  CPU
  902  ROM
  903  RAM
  904  ストレージ装置
  905  通信モジュール
  906  通信ネットワーク
  907  センサモジュール
  910  表示装置
  911  スピーカ
  912  マイクロフォン
  913  入力装置
  914  バス
  BL  ビット線
  SL  信号線
  WL  ワード線

Claims (20)

  1.  第1の半導体基板及び第2の半導体基板の積層を含む半導体装置であって、
     前記第1の半導体基板は、
     前記第1の半導体基板の光入射面からの光に応じて電荷を生成する撮像素子と、
     前記撮像素子に対して前記光入射面とは反対側に設けられる第1のメモリ素子と、
    を備え、
     前記第1のメモリ素子は、
     前記光入射面側から、磁化固定層、非磁性層、記憶層の順に積層された積層構造を持つ、
     半導体装置。
  2.  前記第1のメモリ素子の、積層方向に沿って切断した断面は、台形状であり、
     当該台形の前記光入射面側に位置する上底の長さは、当該台形の下底に比して長い、
     請求項1に記載の半導体装置。
  3.  前記第2の半導体基板は、ロジック回路を備える、請求項1に記載の半導体装置。
  4.  前記第1の半導体基板と前記第2の半導体基板とは、互いにそれぞれ設けられた接合電極により接合される、請求項1に記載の半導体装置。
  5.  前記接合電極は、銅から形成される、請求項4に記載の半導体装置。
  6.  前記第1のメモリ素子は、
     前記積層構造を挟む第1の電極及び第2の電極をさらに有し、
     前記第1の電極は、前記積層構造に対して前記光入射面側に位置し、
     前記第2の電極は、選択トランジスタと電気的に接続される、
     請求項1に記載の半導体装置。
  7.  前記選択トランジスタは、n型MOSトランジスタである、請求項6に記載の半導体装置。
  8.  前記第1のメモリ素子は、読み出しトランジスタ及び書き込みトランジスタに電気的に接続され、
     前記読み出しトランジスタ及び前記書き込みトランジスタのゲート酸化膜の膜厚が互いに異なる、請求項1に記載の半導体装置。
  9.  前記第1の半導体基板は、
     二次元配列する複数の前記撮像素子からなる画素領域と、
     二次元配列する複数の前記第1のメモリ素子からなるメモリ領域と、
     を備える、
     請求項1に記載の半導体装置。
  10.  前記複数の第1のメモリ素子の少なくとも一部は、揮発性記憶素子である、請求項9に記載の半導体装置。
  11.  前記複数の第1のメモリ素子の少なくとも一部は、不揮発性記憶素子である、請求項9に記載の半導体装置。
  12.  前記複数の第1のメモリ素子は、揮発性記憶素子及び不揮発性記憶素子を含む、請求項9に記載の半導体装置。
  13.  前記不揮発性記憶素子には、前記非磁性層が破壊されるOTP記憶素子が含まれる、請求項11に記載の半導体装置。
  14.  前記メモリ領域は、ロジック回路を含む、請求項9に記載の半導体装置。
  15.  前記第2の半導体基板は、メモリ素子を備えていない、請求項1に記載の半導体装置。
  16.  前記第2の半導体基板は、複数の第2のメモリ素子を備える、請求項9に記載の半導体装置。
  17.  前記各第2のメモリ素子は、
     前記第1の半導体基板側から、記憶層、非磁性層、磁化固定層の順に積層された積層構造を持つ、
     請求項16に記載の半導体装置。
  18.  前記各第1のメモリ素子と前記各第2のメモリ素子とが、直列接続される、請求項16に記載の半導体装置。
  19.  直列接続された前記第1のメモリ素子と前記第2のメモリ素子とからなる、複数のメモリ素子対を有し、
     前記複数のメモリ素子対のそれぞれの抵抗値は、互いに異なる、
     請求項18に記載の半導体装置。
  20.  第1の半導体基板及び第2の半導体基板の積層を含む半導体装置を搭載する電子機器であって、
     前記第1の半導体基板は、
     前記第1の半導体基板の光入射面からの光に応じて電荷を生成する撮像素子と、
     前記撮像素子に対して前記光入射面とは反対側に設けられる第1のメモリ素子と、
    を備え、
     前記第1のメモリ素子は、
     前記光入射面側から、磁化固定層、非磁性層、記憶層の順に積層された積層構造を持つ、
     電子機器。
PCT/JP2023/005900 2022-03-11 2023-02-20 半導体装置及び電子機器 WO2023171331A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022038349A JP2023132810A (ja) 2022-03-11 2022-03-11 半導体装置及び電子機器
JP2022-038349 2022-03-11

Publications (1)

Publication Number Publication Date
WO2023171331A1 true WO2023171331A1 (ja) 2023-09-14

Family

ID=87934962

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/005900 WO2023171331A1 (ja) 2022-03-11 2023-02-20 半導体装置及び電子機器

Country Status (3)

Country Link
JP (1) JP2023132810A (ja)
TW (1) TW202343691A (ja)
WO (1) WO2023171331A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117684A (ja) * 2000-09-15 2002-04-19 Hewlett Packard Co <Hp> 追記型薄膜メモリ
JP2004146614A (ja) * 2002-10-24 2004-05-20 Sony Corp 磁気抵抗効果素子および磁気メモリ装置
JP2016063118A (ja) * 2014-09-19 2016-04-25 株式会社東芝 撮像素子、撮像装置および半導体装置
WO2016080146A1 (ja) * 2014-11-20 2016-05-26 ソニー株式会社 半導体装置
WO2020022375A1 (ja) * 2018-07-24 2020-01-30 ソニーセミコンダクタソリューションズ株式会社 半導体装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117684A (ja) * 2000-09-15 2002-04-19 Hewlett Packard Co <Hp> 追記型薄膜メモリ
JP2004146614A (ja) * 2002-10-24 2004-05-20 Sony Corp 磁気抵抗効果素子および磁気メモリ装置
JP2016063118A (ja) * 2014-09-19 2016-04-25 株式会社東芝 撮像素子、撮像装置および半導体装置
WO2016080146A1 (ja) * 2014-11-20 2016-05-26 ソニー株式会社 半導体装置
WO2020022375A1 (ja) * 2018-07-24 2020-01-30 ソニーセミコンダクタソリューションズ株式会社 半導体装置

Also Published As

Publication number Publication date
JP2023132810A (ja) 2023-09-22
TW202343691A (zh) 2023-11-01

Similar Documents

Publication Publication Date Title
JP6835121B2 (ja) コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム
JP7188394B2 (ja) 画像処理装置及び画像処理方法
JP7314798B2 (ja) 撮像装置、画像処理装置、及び、画像処理方法
JPWO2020009060A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110281934A (zh) 车辆控制装置、车辆控制方法及存储介质
WO2022158185A1 (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
WO2021024805A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023171331A1 (ja) 半導体装置及び電子機器
WO2023153083A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び移動装置
CN109804464A (zh) 电子基板和电子设备
WO2022153896A1 (ja) 撮像装置、画像処理方法及び画像処理プログラム
US20230289980A1 (en) Learning model generation method, information processing device, and information processing system
WO2023189071A1 (ja) 撮像装置及び電子機器
WO2023053498A1 (ja) 情報処理装置、情報処理方法、記録媒体、および車載システム
WO2023149089A1 (ja) 学習装置、学習方法及び学習プログラム
US20240120356A1 (en) Imaging device and electronic apparatus
WO2022270110A1 (ja) 撮像装置および電子機器
WO2023063145A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2022196288A1 (ja) 固体撮像装置、撮像装置、固体撮像装置の処理方法、固体撮像装置の処理プログラム、撮像装置の処理方法、及び、撮像装置の処理プログラム
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2023054090A1 (ja) 認識処理装置、認識処理方法、および認識処理システム
US11926342B2 (en) Autonomous vehicle post-action explanation system
WO2024062842A1 (ja) 固体撮像装置
WO2024009739A1 (ja) 光学式測距センサ、及び光学式測距システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23766510

Country of ref document: EP

Kind code of ref document: A1