logo logo
您的位置 :首页 > 新闻中心
矩阵的含义
发布时间 : 2021-04-01 06:23:32 浏览: 174次 来源:【jake推荐】 作者:-=Jake=-

说明

我一直想总结一下我之前读过的一篇文章,以总结我对矩阵的新理解。首先,让我解释一下这篇文章是“ Magic Matrix”。我建议您在有空的时候阅读原文。这是一个非常不错的文章。作者雄辩地描述了矩阵背后的含义,这使我对矩阵的理解达到了更高的水平。在这里感谢作者!我在这里只是为了总结我所学到的东西。我相信您在阅读矩阵后将能够理解某些核心概念背后的物理含义。

空格

首先,空间的特征是它可以容纳运动。更准确地说,这里的移动是一种过渡和转变。我们可以想象这样一种情况:玻尔原子模型中围绕原子核的电子在吸收或释放能量后立即从该轨道改变为另一个轨道。此外,线性空间是可以容纳线性变换的集合。

我们在这里讨论了集合,那么线程空间是谁的集合?是一个向量。向量不像是我们最基本了解的最直观的向量,也不像是带有方向的有向线段。这里的向量更一般化为一系列有序数字。首先凤凰彩票官网 ,这里的方向更一般,不是像我们直观地体验的上,下,左,右,东,西,南和北,而是某个对象的某个方面。例如大小,颜色和重量都是向量中的所有方向。数量是它们的数值表达式。例如,大象为3立方米,颜色为红色,重量为7公斤。这样的向量可以描述一个人,一个教室甚至所有东西。

那么如何确定空间中的向量?是要建立一套坐标系(即基础)。这里的坐标系实际上是一些线性不相关的向量。就像三维空间中的基础一样,是三个相互垂直的轴。在线性空间中,只能发现几个线性不相关的向量来表示任何其他向量。例如,一旦我们在二维平面上找到两个相交的矢量,就可以表示任何其他二维矢量。当然,当我们需要表示一个n维对象时,我们需要找到n个不相关的向量。线性空间中的向量是点之一,或者是从点到坐标原点的方向的线段。同时,我们还知道由多个线性不相关向量组成的矩阵可以描述线性空间中的坐标系。伟大的! :-)

矩阵与变换

这是一个问题,如何描述线性空间中向量的运动或变换?实际上,这是矩阵的功能。在线性空间中选择基数后,向量将描述对象。矩阵描述对象的运动,并使用矩阵与向量的相乘来描述运动。此处的运动可以理解为扩展和旋转,因为平移后的矢量仍然是相同的矢量。

β=Mα,其中M描述从α向量到β向量的运动。

可达矩阵的概念_如何求可达矩阵_可达矩阵的物理意义

B = MA中的M描述了一组向量{a}至{B}的运动。

从上面可以看出,矩阵发挥了很多作用。这是一个澄清:

①矩阵是坐标系吗?坐标系由一堆线性独立的向量组成,但此处以矩阵形式表示。

②矩阵是对运动的描述吗?是的。

③一般来说,如果矩阵单独出现,则它描述的是坐标系。如果将其乘以向量或矩阵,则表示转换。

矩阵和方程系统

方程组的解与系数有关,因此,如果将系数提取并组合在一起,它将成为矩阵。矩阵的行变换是求解方程式时元素的增加,减少和消除的过程。

方程组Ax = b的含义,对于方程组解有两种解释。

①空间几何具有共同的交点(线,面,超平面)。

②这表明向量b可以由A的列向量表示,因此它表明向量b在由A的列向量形成的空间中。例如,如果A = [a1,a2, …an],方程系统为x1a1 + x2a2 +…+ xnan = b。这里将发生兼容性,也就是说,将低维向量放在高维空间中是完全可以的。此时,A的等级与[Ab]的等级相同(矩阵的等级表示由向量形成的空间的维数)。

矩阵的基础和坐标

首先,声明我们正在讨论的矩阵是非奇异的(全秩矩阵)。

假设{a} {b}是同一空间中的两组不同的底数,如果存在一个矩阵M使得{b} = {a} M,那么我们说M从底数{a}到以{b}为基础进行转化。因此,我们得到了矩阵的正确乘法,可以将一组基数转换为另一组基数。矩阵再次代表运动,左边的乘法代表对象的变换,右边的乘法代表坐标的变换。这就是为什么我们想到相对运动。固定坐标系下物体的变换等同于固定坐标系下物体的变换。

按照上面的示例,假设{a}对应于x,{b}对应于y,则Y = M-1X。在左边乘一个矩阵是将一组基数的下标更改为另一组基数的下标。可以看出,By = Ax意味着x到A的转换和y到B的转换是相等的,这意味着y和x最终转换为同一事物。由于是同一件事,所以我们可以理解,有一个向量在A的基础上以x表示,在B的基础上以y表示!这时,我们可以采取将这些向量的左侧乘以矩阵的形式,作为一种身份识别!例如,Ax说有一个向量,在A的基础上表示为x,在B的基础上表示为y,但是它们是相同的向量。真是令人震惊! (这里的左乘法与前面提到的矩阵表示运动的观点并不矛盾)

特殊矩阵

矩阵的连续乘法表示变换的叠加,并且可以将变换分解为旋转和拉伸。对应于旋转的矩阵对应于旋转矩阵,并且拉伸对应于对角线矩阵。顺便提及,旋转矩阵具有对角矩阵的性质,对角矩阵是对角矩阵的一种。对于旋转矩阵的连续乘法,我们可以将其视为矢量在多个方向上的叠加。对于对角矩阵的连续乘法可达矩阵的物理意义,它是矢量放大或缩小的叠加。普通矩阵乘法是旋转和展开的叠加。

矩阵的等价性和相似性

矩阵的等价是为了简化计算。首先,让我们谈谈矩阵的等价性。根据定义,存在可逆矩阵P和Q,使得PAQ =B。我们说A和B是等效的。假设A是一个M×N矩阵NBA外围 ,dim = {M,N},我们可以说A是dim的子空间,并且在变换过程中,如果它是可逆的,则可以将其变换出来,然后进行变换,因为它已经是可逆的,则表明该变换不会更改矩阵维。因此,我们得出A和B的尺寸相同,即A和B的等级相同。即,它们表示相同维度的子空间,并且从可观察性和可控制性的角度来看,它们具有相同的控制维度。这就是等价矩阵的含义。

上述等效运算是简化运算的一种方式,类似的变换也可以达到简化运算的效果。首先给出一个结论:相似度矩阵是对不同基数下相同线性变换的描述。也就是说,现在有了一种转变。如果选择了坐标系1,则转换用A表示,如果选择了坐标系2,则转换用B表示。但是实际上,它们描述的是相同的转换。根据定义,存在一个满足B = P-1AP的可逆矩阵P,我们说B和A是可逆矩阵。在前面的描述中ag真人 ,我们知道可以用不同的坐标系描述相同的空间,并且它们的坐标具有对应的关系。假设我们现在选择的两个坐标系为[α] [β],则[β] = [α] P,则坐标的对应关系为x2 = P-1x1。

假设下标1的底数为[α],下标2的底数为[β],并且从x到y的变化为T。然后x1通过T1获得y1,x2通过T2获得获得y2。我们已经知道[α] [β]是相关的凤凰彩票代理 ,那么T与T之间的关系是什么? x2 = P-1x1加T2的转换为y2,在y2的基础上加P的转换为y1。整个过程为PT2P-1X = y1。与T1X1 = y1相同。因此我们得到T2 = P-1T1P。这是相似度矩阵的定义。 T1和T2是相似性矩阵。原始的矩阵族是对同一线性变换的描述。

矩阵特征向量的相似对角化

如果存在仅缩放和变换矢量而没有旋转效果的矩阵,则我们将此矢量称为该矩阵的特征向量。该矩阵对矢量的影响只是扩展,因此我们的公式看起来更有意义Ax =λx。通过该公式,我们还可以看到特征向量不是向量而是向量家族,并且向量组是线性相关的。

对角矩阵

对角线化矩阵的目的是简化运算。对角化是指可以找到一组碱基使A变成对角矩阵。然后与A相关的原始矩阵运算就变成对角矩阵运算(从前面的描述中我们可以知道A与这个对角矩阵相似,即在不同坐标系中相同事物的表示)。对角矩阵给了我们一个简单的角度。这种感觉就像机器学习中的功能转换。可以由二维曲线划分的数据可以由三维超平面线性划分;例如,样本空间中的随机变量的分布可能没有任何特征,但是此随机变量的功能可能具有很好的规律性;那么其中一个坐标系下的空间中的矩阵非常复杂,而在另一个坐标系中则很简单。

矩阵A对角化的条件是在此n维空间中找到n个线性不相关的特征向量。当我们找到特征向量时,这n个特征向量可以构成一个基础,然后表示该矩阵。找到特征向量,然后找到特征值,我们可以将与A及其特征向量有关的运算转换为数乘法运算。获得的矩阵的特征值是变化的幅度,特征向量是变化的方向。

特征值分解

也称为光谱分解,在这里解释了物理意义。具有良好性能的矩阵将分解为多种效果的叠加。特征值与频谱的乘积表示其对矩阵的贡献。贡献越大,权重越大,越重要。这类似于PCA(主成分分析)。主成分分析是将复杂的事物(功能可达矩阵的物理意义,图像,音频等)分解为几个相等的部分,然后保留主要部分并删除次要部分。同样,多项式泰勒展开的阶数越高,其权重越低。因此,我们通常只采用一阶和二阶而不是所有公式来捕获主要特征。奇异值分解是相同的原理。

内在产品和相关性

内积可以测量两个函数的线性相似度(请注意线性相似度!)。它可以表示两个向量之间的角度。为了消除长度的影响,我们通常使用余弦相似度。

当然,实际上,通常会以y = ax + b的形式出现。这将给上述公式带来麻烦。相应的策略是让x和y减去各自的饮酒期望值,然后按照上述公式进行计算,这就是著名的Pearson相关系数。

行列式

行列式有两个含义

①行列式是行列式中行或列形成的“平行多面体”的定向体积。很容易理解与行列式相对应的矩阵是否是对角线的。

对角线确定矩阵后,原始不规则多面体变为规则多面体,其体积为。它确实代表了几何体的体积!那么原始的不规则量和当前的不规则量有什么区别? ②它们之间的差异是坐标变换矩阵的决定因素。这是解释面积或体积的第二个膨胀因子。行列式具有正负值,但面积和体积均为正数,因此行列式中面积和体积的正负表示一个方向。例如,xyz是彼此的镜像。

到目前为止澳洲幸运5 ,由于“魔幻矩阵”的作者,我已经完成了我的想法输出!

返回新闻资讯