相信许多留学生对数学代考都不陌生,国外许多大学都引进了网课的学习模式。网课学业有利有弊,学生不需要到固定的教室学习,只需要登录相应的网站研讨线上课程即可。但也正是其便利性,线上课程的数量往往比正常课程多得多。留学生课业深重,时刻名贵,既要学习知识,又要结束多种类型的课堂作业,physics作业代写,物理代写,论文写作等;网课考试很大程度增加了他们的负担。所以,您要是有这方面的困扰,不要犹疑,订购myassignments-help代考渠道的数学代考服务,价格合理,给你前所未有的学习体会。

我们的数学代考服务适用于那些对课程结束没有掌握,或许没有满足的时刻结束网课的同学。高度匹配专业科目,按需结束您的网课考试、数学代写需求。担保买卖支持,100%退款保证,免费赠送Turnitin检测报告。myassignments-help的Math作业代写服务,是你留学路上忠实可靠的小帮手!


统计代写|线性回归分析代写linear regression analysis代考|Least Squares Estimation

When the techniques of regression analysis are used for analyzing data from experimental designs, we find that the elements of $X$ are 0 or 1 (Chapter 8 ), and the columns of $\mathbf{X}$ are usually linearly dependent. We now give such an example.

EXAMPLE 3.6 Consider the randomized block design with two treatments and two blocks: namely,
$$
Y_{i j}=\mu+\alpha_i+\tau_j+\varepsilon_{i j} \quad(i=1,2 ; j=1,2),
$$

$$
\left(\begin{array}{l}
Y_{11} \
Y_{12} \
\hline Y_{21} \
Y_{22}
\end{array}\right)=\left(\begin{array}{lllll}
1 & 1 & 0 & 1 & 0 \
1 & 1 & 0 & 0 & 1 \
\hline 1 & 0 & 1 & 1 & 0 \
1 & 0 & 1 & 0 & 1
\end{array}\right)\left(\begin{array}{c}
\mu \
\alpha_1 \
\alpha_2 \
\tau_1 \
\tau_2
\end{array}\right)+\left(\begin{array}{c}
\varepsilon_{11} \
\varepsilon_{12} \
\hline \varepsilon_{21} \
\varepsilon_{22}
\end{array}\right)
$$
or $\mathbf{Y}=\mathbf{X} \beta+\varepsilon$, where, for example, the first column of $\mathbf{X}$ is linearly dependent on the other columns.

In Section $3.1$ we developed a least squares theory which applies whether or not $\mathbf{X}$ has full rank. If $\mathbf{X}$ is $n \times p$ of rank $r$, where $r<p$, we saw in Section $3.1$ that $\hat{\beta}$ is no longer unique. In fact, $\hat{\beta}$ should be regarded as simply $a$ solution of the normal equations [e.g., $\left.\left(\mathbf{X}^{\prime} \mathbf{X}\right)^{-} \mathbf{X}^{\prime} \mathbf{Y}\right]$ which then enables us to find $\hat{\mathbf{Y}}=\mathbf{X} \hat{\boldsymbol{\beta}}, \hat{\mathbf{e}}=\mathbf{Y}-\mathbf{X} \hat{\boldsymbol{\beta}}$ and $\mathrm{RSS}=\mathbf{e}^{\prime} \mathbf{e}$, all of which are unique. We note that the normal equations $\mathbf{X}^{\prime} \mathbf{X} \beta=\mathbf{X}^{\prime} \mathbf{Y}$ always have a solution for $\beta$ as $\mathcal{C}\left(\mathbf{X}^{\prime}\right)=\mathcal{C}\left(\mathbf{X}^{\prime} \mathbf{X}\right.$ ) (by $\left.\mathbf{A} .2 .5\right)$. Our focus now is to consider methods for finding $\hat{\beta}$.

So far in this chapter our approach has been to replace $\mathbf{X}$ by an $n \times r$ matrix $\mathbf{X}_1$ which has the same column space as $\mathbf{X}$. Very often the simplest way of doing this is to select $r$ appropriate columns of $\mathbf{X}$, which amounts to setting some of the $\beta_i$ in $\mathbf{X} \beta$ equal to zero. Algorithms for carrying this out are described in Section 11.9.

In the past, two other methods have been used. The first consists of imposing identifiability constraints, $\mathbf{H} \beta=0$ say, which take up the “slack” in $\beta$ so that there is now a unique $\beta$ satisfying $\theta=\mathbf{X} \boldsymbol{\beta}$ and $\mathbf{H} \boldsymbol{\beta}=\mathbf{0}$. This approach is described by Scheffé [1959: p. 17]. The second method involves computing a generalized inverse. In Section $3.1$ we saw that a $\hat{\beta}$ is given by $\left(\mathbf{X}^{\prime} \mathbf{X}\right)^{-} \mathbf{X}^{\prime} \mathbf{Y}$, where $\left(\mathbf{X}^{\prime} \mathbf{X}\right)^{-}$is a suitable generalized inverse of $\mathbf{X}^{\prime} \mathbf{X}$. One commonly used such inverse of a matrix $\mathbf{A}$ is the Moore-Penrose inverse $\mathbf{A}^{+}$, which is unique (see A.10).

统计代写|线性回归分析代写linear regression analysis代考|Estimable Functions

Since $\hat{\beta}$ is not unique, $\beta$ is not estimable. The question then arises: What can we estimate? Since each element $\theta_i$ of $\theta(=\mathbf{X} \boldsymbol{\beta})$ is estimated by the $i$ th element of $\hat{\theta}=\mathbf{P Y}$, then every linear combination of the $\theta_i$, say $\mathbf{b}^{\prime} \theta$, is also estimable. This means that the $\theta_i$ form a linear subspace of estimable functions, where $\theta_i=\mathbf{x}_i^{\prime} \beta, \mathbf{x}_i^{\prime}$ being the $i$ th row of $\mathbf{X}$. Usually, we define estimable functions formally as follows.

Definition 3.1 The parametric function $\mathrm{a}^{\prime} \beta$ is said to be estimable if it has a linear unbiased estimate, $\mathbf{b}^{\prime} \mathbf{Y}$, say.

We note that if $\mathbf{a}^{\prime} \beta$ is estimable, then $\mathbf{a}^{\prime} \beta=E\left[\mathbf{b}^{\prime} \mathbf{Y}\right]=\mathbf{b}^{\prime} \boldsymbol{\theta}=\mathbf{b}^{\prime} \mathbf{X} \boldsymbol{\beta}$ identically in $\boldsymbol{\beta}$, so that $\mathbf{a}^{\prime}=\mathbf{b}^{\prime} \mathbf{X}$ or $\mathbf{a}=\mathbf{X}^{\prime} \mathbf{b}$ (A.11.1). Heñce $\mathbf{a}^{\prime} \beta$ is estimable if and only if $\mathbf{a} \in \mathcal{C}\left(\mathbf{X}^{\prime}\right)$.

EXAMPLE $3.8$ If $\mathrm{a}^{\prime} \beta$ is estimable, and $\hat{\beta}$ is any solution of the normal equations, then $\mathbf{a}^{\prime} \hat{\beta}$ is unique. To show this we first note that $\mathbf{a}=\mathbf{X}^{\prime} \mathbf{b}$ for some $\mathbf{b}$, so that $\mathbf{a}^{\prime} \boldsymbol{\beta}=\mathbf{b}^{\prime} \mathbf{X} \boldsymbol{\beta}=\mathbf{b}^{\prime} \boldsymbol{\theta}$. Similarly, $\mathbf{a}^{\prime} \hat{\boldsymbol{\beta}}=\mathbf{b}^{\prime} \mathbf{X} \hat{\boldsymbol{\beta}}=\mathbf{b}^{\prime} \hat{\boldsymbol{\theta}}$, which is unique. Furthermore, by Theorem $3.2, \mathbf{b}^{\prime} \hat{\boldsymbol{\theta}}$ is the BLUE of $\mathbf{b}^{\prime} \boldsymbol{\theta}$, so that $\mathbf{a}^{\prime} \hat{\boldsymbol{\beta}}$ is the BLUE of $\mathbf{a}^{\prime} \boldsymbol{\beta}$.

统计代写|线性回归分析代写linear regression analysis代考|AH7722

线性回归分析代考

统计代写|线性回归分析代写linear regression analysis代考|Least Squares Estimation

当回归分析技术用于分析来自实验设计的数据时,我们发现 $X$ 是 0 或 1 (第 8 章),并且 $\mathbf{X}$ 通常是线性 相关的。我们现在举一个这样的例子。
示例 $3.6$ 考虑具有两个处理和两个区组的随机区组设计:即,
$$
Y_{i j}=\mu+\alpha_i+\tau_j+\varepsilon_{i j} \quad(i=1,2 ; j=1,2),
$$
或者 $\mathbf{Y}=\mathbf{X} \beta+\varepsilon$ ,例如,其中的第一列 $\mathbf{X}$ 线性依赖于其他列。
在部分 $3.1$ 我们开发了一个最小二乘理论,无论是否适用 $\mathbf{X}$ 有满级。如果 $\mathbf{X}$ 是 $n \times p$ 等级 $r$ ,在哪里 $r<p$ ,我们在第 $3.1$ 那 $\hat{\beta}$ 不再是唯一的。实际上, $\hat{\beta}$ 应该被简单地视为 $a$ 正规方程的解例如, $\left.\left(\mathbf{X}^{\prime} \mathbf{X}\right)^{-} \mathbf{X}^{\prime} \mathbf{Y}\right]$ 这使我们能够找到 $\hat{\mathbf{Y}}=\mathbf{X} \hat{\boldsymbol{\beta}}, \hat{\mathbf{e}}=\mathbf{Y}-\mathbf{X} \hat{\boldsymbol{\beta}}$ 和RSS $=\mathbf{e}^{\prime} \mathbf{e}$, 所有这些都是独一无二的。我们注意到正规 方程 $\mathbf{X}^{\prime} \mathbf{X} \beta=\mathbf{X}^{\prime} \mathbf{Y}$ 总是有解决方案 $\beta$ 作为 $\mathcal{C}\left(\mathbf{X}^{\prime}\right)=\mathcal{C}\left(\mathbf{X}^{\prime} \mathbf{X}\right)$ (经过 $\left.\mathbf{A} .2 .5\right)$. 我们现在的重点是考虑 寻找方法 $\hat{\beta}$.
到目前为止,在本章中,我们的方法是替换 $\mathbf{X}$ 由一个 $n \times r$ 矩阵 $\mathbf{X}_1$ 具有相同的列空间 $\mathbf{X}$. 通常最简单的方 法是选择 $r$ 适当的列 $\mathbf{X}$ ,这相当于设置一些 $\beta_i$ 在 $\mathbf{X} \beta$ 等于零。执行此操作的算法在第 $11.9$ 节中描述。
过去,还使用了另外两种方法。第一个包括施加可识别性约束, $\mathbf{H} \beta=0$ 说,它占用了”松弛“所以现在 有一个独特的 $\beta$ 令人满意的 $\theta=\mathbf{X} \boldsymbol{\beta}$ 和 $\mathbf{H} \boldsymbol{\beta}=\mathbf{0}$. 这种方法由 Scheffé [1959: p. 17]。第二种方法涉及计算 广义逆。在部分 $3.1$ 我们看到一个 $\hat{\beta}$ 是 (谁) 给的 $\left(\mathbf{X}^{\prime} \mathbf{X}\right)^{-} \mathbf{X}^{\prime} \mathbf{Y}$ ,在哪里 $\left(\mathbf{X}^{\prime} \mathbf{X}\right)^{-}$是一个合适的广义逆 $\mathbf{X}^{\prime} \mathbf{X}$.一种常用的矩阵逆 $\mathbf{A}$ 是摩尔-彭罗斯逆 $\mathbf{A}^{+}$,这是唯一的 (见 $\mathrm{A} .10$ )。

统计代写|线性回归分析代写linear regression analysis代考|Estimable Functions

自从 $\hat{\beta}$ 不是独一无二的, $\beta$ 是不可估量的。那么问题来了: 我们可以估计什么? 由于每个元素 $\theta_i$ 的 $\theta(=\mathbf{X} \boldsymbol{\beta})$ 估计由 $i$ 第一个元素 $\hat{\theta}=\mathbf{P Y}$ ,那么每个线性组合 $\theta_i$ ,说 $\mathbf{b}^{\prime} \theta_{} \text { 也是可估计的。这意味着 } \theta_i \text { 形成 }$ 可估计函数的线性子空间,其中 $\theta_i=\mathbf{x}i^{\prime} \beta, \mathbf{x}_i^{\prime}$ 作为 $i$ 第 行 $\mathbf{X}$. 通常,我们正式定义可估计函数如下。 定义 $3.1$ 参数函数 $\mathbf{a}^{\prime} \beta$ 如果它具有线性无偏估计,则称它是可估计的, $\mathbf{b}^{\prime} \mathbf{Y}$ ,说。 我们注意到,如果 $\mathbf{a}^{\prime} \beta$ 是可估计的,那么 $\mathbf{a}^{\prime} \beta=E\left[\mathbf{b}^{\prime} \mathbf{Y}\right]=\mathbf{b}^{\prime} \boldsymbol{\theta}=\mathbf{b}^{\prime} \mathbf{X} \boldsymbol{\beta}$ 同样在 $\boldsymbol{\beta}{\text {, }}$ ,便 $\mathbf{a}^{\prime}=\mathbf{b}^{\prime} \mathbf{X}$ 或 者 $\mathbf{a}=\mathbf{X}^{\prime} \mathbf{b}(\mathrm{A} .11 .1)$ 。因此 $\mathbf{a}^{\prime} \beta$ 是可估计的当且仅当 $\mathbf{a} \in \mathcal{C}\left(\mathbf{X}^{\prime}\right)$.
例子 $3.8$ 如果 $\mathrm{a}^{\prime} \beta$ 是可估计的,并且 $\hat{\beta}$ 是正规方程组的任意解,则 $\mathrm{a}^{\prime} \hat{\beta}$ 是独特的。为了证明这一点,我们首 先注意到 $\mathbf{a}=\mathbf{X}^{\prime} \mathbf{b}$ 对于一些 $\mathbf{b}$ ,以便 $\mathbf{a}^{\prime} \boldsymbol{\beta}=\mathbf{b}^{\prime} \mathbf{X} \boldsymbol{\beta}=\mathbf{b}^{\prime} \boldsymbol{\theta}$. 相似地, $\mathbf{a}^{\prime} \hat{\boldsymbol{\beta}}=\mathbf{b}^{\prime} \mathbf{X} \hat{\boldsymbol{\beta}}=\mathbf{b}^{\prime} \hat{\boldsymbol{\theta}}$ ,这是独一 无二的。此外,由定理 $3.2, \mathbf{b}^{\prime} \hat{\boldsymbol{\theta}}$ 是蓝色的 $\mathbf{b}^{\prime} \boldsymbol{\theta}$ , 以便 $\mathbf{a}^{\prime} \hat{\boldsymbol{\beta}}$ 是蓝色的 $\mathbf{a}^{\prime} \boldsymbol{\beta}$.

统计代写|线性回归分析代写linear regression analysis代考

myassignments-help数学代考价格说明

1、客户需提供物理代考的网址,相关账户,以及课程名称,Textbook等相关资料~客服会根据作业数量和持续时间给您定价~使收费透明,让您清楚的知道您的钱花在什么地方。

2、数学代写一般每篇报价约为600—1000rmb,费用根据持续时间、周作业量、成绩要求有所浮动(持续时间越长约便宜、周作业量越多约贵、成绩要求越高越贵),报价后价格觉得合适,可以先付一周的款,我们帮你试做,满意后再继续,遇到Fail全额退款。

3、myassignments-help公司所有MATH作业代写服务支持付半款,全款,周付款,周付款一方面方便大家查阅自己的分数,一方面也方便大家资金周转,注意:每周固定周一时先预付下周的定金,不付定金不予继续做。物理代写一次性付清打9.5折。

Math作业代写、数学代写常见问题

留学生代写覆盖学科?

代写学科覆盖Math数学,经济代写,金融,计算机,生物信息,统计Statistics,Financial Engineering,Mathematical Finance,Quantitative Finance,Management Information Systems,Business Analytics,Data Science等。代写编程语言包括Python代写、Physics作业代写、物理代写、R语言代写、R代写、Matlab代写、C++代做、Java代做等。

数学作业代写会暴露客户的私密信息吗?

我们myassignments-help为了客户的信息泄露,采用的软件都是专业的防追踪的软件,保证安全隐私,绝对保密。您在我们平台订购的任何网课服务以及相关收费标准,都是公开透明,不存在任何针对性收费及差异化服务,我们随时欢迎选购的留学生朋友监督我们的服务,提出Math作业代写、数学代写修改建议。我们保障每一位客户的隐私安全。

留学生代写提供什么服务?

我们提供英语国家如美国、加拿大、英国、澳洲、新西兰、新加坡等华人留学生论文作业代写、物理代写、essay润色精修、课业辅导及网课代修代写、Quiz,Exam协助、期刊论文发表等学术服务,myassignments-help拥有的专业Math作业代写写手皆是精英学识修为精湛;实战经验丰富的学哥学姐!为你解决一切学术烦恼!

物理代考靠谱吗?

靠谱的数学代考听起来简单,但实际上不好甄别。我们能做到的靠谱,是把客户的网课当成自己的网课;把客户的作业当成自己的作业;并将这样的理念传达到全职写手和freelancer的日常培养中,坚决辞退糊弄、不守时、抄袭的写手!这就是我们要做的靠谱!

数学代考下单流程

提早与客服交流,处理你心中的顾虑。操作下单,上传你的数学代考/论文代写要求。专家结束论文,准时交给,在此过程中可与专家随时交流。后续互动批改

付款操作:我们数学代考服务正常多种支付方法,包含paypal,visa,mastercard,支付宝,union pay。下单后与专家直接互动。

售后服务:论文结束后保证完美经过turnitin查看,在线客服全天候在线为您服务。如果你觉得有需求批改的当地能够免费批改,直至您对论文满意为止。如果上交给教师后有需求批改的当地,只需求告诉您的批改要求或教师的comments,专家会据此批改。

保密服务:不需求提供真实的数学代考名字和电话号码,请提供其他牢靠的联系方法。我们有自己的工作准则,不会泄露您的个人信息。

myassignments-help擅长领域包含但不是全部:

myassignments-help服务请添加我们官网的客服或者微信/QQ,我们的服务覆盖:Assignment代写、Business商科代写、CS代考、Economics经济学代写、Essay代写、Finance金融代写、Math数学代写、report代写、R语言代考、Statistics统计学代写、物理代考、作业代写、加拿大代考、加拿大统计代写、北美代写、北美作业代写、北美统计代考、商科Essay代写、商科代考、数学代考、数学代写、数学作业代写、physics作业代写、物理代写、数据分析代写、新西兰代写、澳洲Essay代写、澳洲代写、澳洲作业代写、澳洲统计代写、澳洲金融代写、留学生课业指导、经济代写、统计代写、统计作业代写、美国Essay代写、美国代考、美国数学代写、美国统计代写、英国Essay代写、英国代考、英国作业代写、英国数学代写、英国统计代写、英国金融代写、论文代写、金融代考、金融作业代写。