统计代写|主成分分析代写Principal Component Analysis代考|Nonlinear and Kernel PCA

相信许多留学生对数学代考都不陌生,国外许多大学都引进了网课的学习模式。网课学业有利有弊,学生不需要到固定的教室学习,只需要登录相应的网站研讨线上课程即可。但也正是其便利性,线上课程的数量往往比正常课程多得多。留学生课业深重,时刻名贵,既要学习知识,又要结束多种类型的课堂作业,physics作业代写,物理代写,论文写作等;网课考试很大程度增加了他们的负担。所以,您要是有这方面的困扰,不要犹疑,订购myassignments-help代考渠道的数学代考服务,价格合理,给你前所未有的学习体会。

我们的数学代考服务适用于那些对课程结束没有掌握,或许没有满足的时刻结束网课的同学。高度匹配专业科目,按需结束您的网课考试、数学代写需求。担保买卖支持,100%退款保证,免费赠送Turnitin检测报告。myassignments-help的Math作业代写服务,是你留学路上忠实可靠的小帮手!


统计代写|主成分分析代写Principal Component Analysis代考|Nonlinear Principal Component Analysis

As discussed before, the main idea behind NLPCA is that we may be able to find an embedding of the data into a high-dimensional space such that the structure of the embedded data becomes (approximately) linear. To see why this may be possible, consider a set of points $\left(x_1, x_2\right) \in \mathbb{R}^2$ lying in a conic of the form
$$
c_1 x_1^2+c_2 x_1 x_2+c_3 x_2^2+c_4=0 .
$$
Notice that if we define the map $\phi: \mathbb{R}^2 \rightarrow \mathbb{R}^3$ as
$$
\left(z_1, z_2, z_3\right)=\phi\left(x_1, x_2\right)=\left(x_1^2, \sqrt{2} x_1 x_2, x_2^2\right),
$$
then the conic in $\mathbb{R}^2$ transforms into the following affine subspace in $\mathbb{R}^3$ :
$$
c_1 z_1+\frac{c_2}{\sqrt{2}} z_2+c_3 z_3+c_4=0 .
$$

Therefore, instead of learning a nonlinear manifold in $\mathbb{R}^2$, we can simply learn an affine manifold in $\mathbb{R}^3$. This example is illustrated in Figure 4.4.
More generally, we seek a nonlinear transformation (usually an embedding)
$$
\begin{aligned}
\phi(\cdot): \mathbb{R}^D & \rightarrow \mathbb{R}^M, \
\boldsymbol{x} & \mapsto \phi(\boldsymbol{x}),
\end{aligned}
$$
such that the structure of the embedded data $\left{\phi\left(\boldsymbol{x}j\right)\right}{j=1}^N$ becomes approximately linear. In machine learning, $\phi(x) \in \mathbb{R}^M$ is called the feature of the data point $x \in \mathbb{R}^D$, and the space $\mathbb{R}^M$ is called the feature space.

Let $\bar{\phi}=\frac{1}{N} \sum_{j=1}^N \phi\left(x_j\right)$ be the sample mean in the feature space and define the mean-subtracted (centered) embedded data matrix as
$$
\Phi \doteq\left[\phi\left(x_1\right)-\overline{\boldsymbol{\phi}}, \phi\left(x_2\right)-\overline{\boldsymbol{\phi}}, \ldots, \phi\left(x_N\right)-\bar{\phi}\right] \in \mathbb{R}^{M \times N}
$$

统计代写|主成分分析代写Principal Component Analysis代考|NLPCA in a High-dimensional Feature Space

A potential difficulty associated with NLPCA is that the dimension $M$ of the feature space can be very high. Thus, computing the principal components in the feature space may become computationally prohibitive. For instance, if we use a Veronese map of degree $n$, the dimension of the feature space is $M=\left(\begin{array}{c}n+D-1 \ n\end{array}\right)$, which grows exponentially fast. When $M$ exceeds $N$, the eigenvalue decomposition of $\Phi \Phi^{\top} \in$ $\mathbb{R}^{M \times M}$ becomes more costly than that of $\Phi^{\top} \Phi \in \mathbb{R}^{N \times N}$, although the two matrices have the same eigenvalues.

This motivates us to examine whether the computation of PCA in the feature space can be reduced to a computation with the lower-dimensional matrix $\Phi^{\top} \Phi$. The answer is actually yes. The key is to notice that despite the dimension of the feature space, every eigenvector $\boldsymbol{u} \in \mathbb{R}^M$ of $\Phi \Phi^{\top}$ associated with a nonzero eigenvalue is always in the span of the matrix $\Phi .^2$ That is,
$$
\Phi \Phi^{\top} \boldsymbol{u}=\lambda \boldsymbol{u} \quad \Longleftrightarrow \quad \boldsymbol{u}=\Phi\left(\lambda^{-1} \Phi^{\top} \boldsymbol{u}\right) \in \operatorname{range}(\Phi)
$$

Thus, if we let $\boldsymbol{w} \doteq \lambda^{-1} \Phi^{\top} \boldsymbol{u} \in \mathbb{R}^N$, we have $|\boldsymbol{w}|^2=\lambda^{-2} \boldsymbol{u}^{\top} \Phi \Phi^{\top} \boldsymbol{u}=\lambda^{-1}$. Moreover, since $\Phi^{\top} \Phi \boldsymbol{w}=\lambda^{-1} \Phi^{\top} \Phi \Phi^{\top} \boldsymbol{u}=\Phi^{\top} \boldsymbol{u}=\lambda \boldsymbol{w}$, the vector $\boldsymbol{w}$ is an eigenvector of $\Phi^{\top} \Phi$ with the same eigenvalue $\lambda$. Once such a $w$ has been computed from $\Phi^{\top} \Phi$, we can recover the corresponding $\boldsymbol{u}$ in the feature space as
$$
u=\Phi w,
$$
and compute the $d$ nonlinear principal components of $x$ under the map $\phi(\cdot)$ as
$$
y_i \doteq \boldsymbol{u}_i^{\top}(\phi(x)-\overline{\boldsymbol{\phi}})=\boldsymbol{w}_i^{\top} \Phi^{\top}(\phi(x)-\overline{\boldsymbol{\phi}}) \in \mathbb{R}, \quad i=1, \ldots, d,
$$
where $\boldsymbol{w}_i \in \mathbb{R}^N$ is the $i$ th leading eigenvector of $\Phi^{\top} \Phi \in \mathbb{R}^{N \times N}$.

主成分分析代考

统计代写|主成分分析代写Principal Component Analysis代考|Nonlinear Principal Component Analysis

如前所述,NLPCA 背后的主要思想是我们可以找到将数据嵌入到高维空间中的方法, 从而使嵌入数据的结构变得 (近似) 线性。要了解为什么这是可能的,请考虑一组点 $\left(x_1, x_2\right) \in \mathbb{R}^2$ 躺在形式的圆锥形
$$
c_1 x_1^2+c_2 x_1 x_2+c_3 x_2^2+c_4=0
$$
请注意,如果我们定义地图 $\phi: \mathbb{R}^2 \rightarrow \mathbb{R}^3$ 作为
$$
\left(z_1, z_2, z_3\right)=\phi\left(x_1, x_2\right)=\left(x_1^2, \sqrt{2} x_1 x_2, x_2^2\right)
$$
然后是圆锥曲线 $\mathbb{R}^2$ 变换为以下仿射子空间 $\mathbb{R}^3$ :
$$
c_1 z_1+\frac{c_2}{\sqrt{2}} z_2+c_3 z_3+c_4=0 .
$$
因此,与其学习非线性流形 $\mathbb{R}^2$ ,我们可以简单地学习仿射流形 $\mathbb{R}^3$. 这个例子如图 4.4 所 示。
更一般地,我们寻求非线性变换(通常是嵌入)
$$
\phi(\cdot): \mathbb{R}^D \rightarrow \mathbb{R}^M, \boldsymbol{x} \quad \mapsto \phi(\boldsymbol{x})
$$
器学习中, $\phi(x) \in \mathbb{R}^M$ 称为数据点的特征 $x \in \mathbb{R}^D$ ,和空间 $\mathbb{R}^M$ 称为特征空间。
让 $\bar{\phi}=\frac{1}{N} \sum_{j=1}^N \phi\left(x_j\right)$ 是特征空间中的样本均值,并将均值减去 (居中) 的嵌入数据 矩阵定义为
$$
\Phi \doteq\left[\phi\left(x_1\right)-\bar{\phi}, \phi\left(x_2\right)-\bar{\phi}, \ldots, \phi\left(x_N\right)-\bar{\phi}\right] \in \mathbb{R}^{M \times N}
$$

统计代写|主成分分析代写Principal Component Analysis代考|NLPCA in a High-dimensional Feature Space

与 NLPCA 相关的一个潜在困难是维度 $M$ 的特征空间可以非常高。因此,计算特征空间 中的主成分可能会变得计算量过大。例如,如果我们使用 Veronese 度图 $n$, 特征空间的 维数为 $M=(n+D-1 n)$ ,呈指数级快速增长。什么时候 $M$ 超过 $N$ ,的特征值分解 $\Phi \Phi^{\top} \in \mathbb{R}^{M \times M}$ 变得比 $\Phi^{\top} \Phi \in \mathbb{R}^{N \times N}$ ,尽管这两个矩阵具有相同的特征值。
这促使我们研究是否可以将特征空间中的 PCA 计算简化为低维矩阵的计算 $\Phi^{\top} \Phi$. 答案 实际上是肯定的。关键是要注意,尽管特征空间的维度,每个特征向量 $\boldsymbol{u} \in \mathbb{R}^M$ 的 $\Phi \Phi^{\top}$ 与非零特征值关联的总是在矩阵的范围内 $\Phi .{ }^2$ 那是,
$$
\Phi \Phi^{\top} \boldsymbol{u}=\lambda \boldsymbol{u} \Longleftrightarrow \boldsymbol{u}=\Phi\left(\lambda^{-1} \Phi^{\top} \boldsymbol{u}\right) \in \operatorname{range}(\Phi)
$$
因此,如果我们让 $\boldsymbol{w} \doteq \lambda^{-1} \Phi^{\top} \boldsymbol{u} \in \mathbb{R}^N$ ,我们有 $|\boldsymbol{w}|^2=\lambda^{-2} \boldsymbol{u}^{\top} \Phi \Phi^{\top} \boldsymbol{u}=\lambda^{-1}$. 此 外,由于 $\Phi^{\top} \Phi \boldsymbol{w}=\lambda^{-1} \Phi^{\top} \Phi \Phi^{\top} \boldsymbol{u}=\Phi^{\top} \boldsymbol{u}=\lambda \boldsymbol{w}$, 向量 $\boldsymbol{w}$ 是的特征向量 $\Phi^{\top} \Phi$ 具有相 同的特征值 $\lambda$. 一旦这样一个 $w$ 已从计算 $\Phi^{\top} \Phi$ ,我们可以恢复相应的 $\boldsymbol{u}$ 在特征空间中作为
$$
u=\Phi w
$$
并计算 $d$ 的非线性主成分 $x$ 在地图下 $\phi(\cdot)$ 作为
$$
y_i \doteq \boldsymbol{u}_i^{\top}(\phi(x)-\overline{\boldsymbol{\phi}})=\boldsymbol{w}_i^{\top} \Phi^{\top}(\phi(x)-\overline{\boldsymbol{\phi}}) \in \mathbb{R}, \quad i=1, \ldots, d,
$$
在哪里 $\boldsymbol{w}_i \in \mathbb{R}^N$ 是个 $i$ 的第 leading 特征向量 $\Phi^{\top} \Phi \in \mathbb{R}^{N \times N}$.

数学代写|凸优化作业代写Convex Optimization代考

myassignments-help数学代考价格说明

1、客户需提供物理代考的网址,相关账户,以及课程名称,Textbook等相关资料~客服会根据作业数量和持续时间给您定价~使收费透明,让您清楚的知道您的钱花在什么地方。

2、数学代写一般每篇报价约为600—1000rmb,费用根据持续时间、周作业量、成绩要求有所浮动(持续时间越长约便宜、周作业量越多约贵、成绩要求越高越贵),报价后价格觉得合适,可以先付一周的款,我们帮你试做,满意后再继续,遇到Fail全额退款。

3、myassignments-help公司所有MATH作业代写服务支持付半款,全款,周付款,周付款一方面方便大家查阅自己的分数,一方面也方便大家资金周转,注意:每周固定周一时先预付下周的定金,不付定金不予继续做。物理代写一次性付清打9.5折。

Math作业代写、数学代写常见问题

留学生代写覆盖学科?

代写学科覆盖Math数学,经济代写,金融,计算机,生物信息,统计Statistics,Financial Engineering,Mathematical Finance,Quantitative Finance,Management Information Systems,Business Analytics,Data Science等。代写编程语言包括Python代写、Physics作业代写、物理代写、R语言代写、R代写、Matlab代写、C++代做、Java代做等。

数学作业代写会暴露客户的私密信息吗?

我们myassignments-help为了客户的信息泄露,采用的软件都是专业的防追踪的软件,保证安全隐私,绝对保密。您在我们平台订购的任何网课服务以及相关收费标准,都是公开透明,不存在任何针对性收费及差异化服务,我们随时欢迎选购的留学生朋友监督我们的服务,提出Math作业代写、数学代写修改建议。我们保障每一位客户的隐私安全。

留学生代写提供什么服务?

我们提供英语国家如美国、加拿大、英国、澳洲、新西兰、新加坡等华人留学生论文作业代写、物理代写、essay润色精修、课业辅导及网课代修代写、Quiz,Exam协助、期刊论文发表等学术服务,myassignments-help拥有的专业Math作业代写写手皆是精英学识修为精湛;实战经验丰富的学哥学姐!为你解决一切学术烦恼!

物理代考靠谱吗?

靠谱的数学代考听起来简单,但实际上不好甄别。我们能做到的靠谱,是把客户的网课当成自己的网课;把客户的作业当成自己的作业;并将这样的理念传达到全职写手和freelancer的日常培养中,坚决辞退糊弄、不守时、抄袭的写手!这就是我们要做的靠谱!

数学代考下单流程

提早与客服交流,处理你心中的顾虑。操作下单,上传你的数学代考/论文代写要求。专家结束论文,准时交给,在此过程中可与专家随时交流。后续互动批改

付款操作:我们数学代考服务正常多种支付方法,包含paypal,visa,mastercard,支付宝,union pay。下单后与专家直接互动。

售后服务:论文结束后保证完美经过turnitin查看,在线客服全天候在线为您服务。如果你觉得有需求批改的当地能够免费批改,直至您对论文满意为止。如果上交给教师后有需求批改的当地,只需求告诉您的批改要求或教师的comments,专家会据此批改。

保密服务:不需求提供真实的数学代考名字和电话号码,请提供其他牢靠的联系方法。我们有自己的工作准则,不会泄露您的个人信息。

myassignments-help擅长领域包含但不是全部:

myassignments-help服务请添加我们官网的客服或者微信/QQ,我们的服务覆盖:Assignment代写、Business商科代写、CS代考、Economics经济学代写、Essay代写、Finance金融代写、Math数学代写、report代写、R语言代考、Statistics统计学代写、物理代考、作业代写、加拿大代考、加拿大统计代写、北美代写、北美作业代写、北美统计代考、商科Essay代写、商科代考、数学代考、数学代写、数学作业代写、physics作业代写、物理代写、数据分析代写、新西兰代写、澳洲Essay代写、澳洲代写、澳洲作业代写、澳洲统计代写、澳洲金融代写、留学生课业指导、经济代写、统计代写、统计作业代写、美国Essay代写、美国代考、美国数学代写、美国统计代写、英国Essay代写、英国代考、英国作业代写、英国数学代写、英国统计代写、英国金融代写、论文代写、金融代考、金融作业代写。

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

Scroll to Top