相信许多留学生对数学代考都不陌生,国外许多大学都引进了网课的学习模式。网课学业有利有弊,学生不需要到固定的教室学习,只需要登录相应的网站研讨线上课程即可。但也正是其便利性,线上课程的数量往往比正常课程多得多。留学生课业深重,时刻名贵,既要学习知识,又要结束多种类型的课堂作业,physics作业代写,物理代写,论文写作等;网课考试很大程度增加了他们的负担。所以,您要是有这方面的困扰,不要犹疑,订购myassignments-help代考渠道的数学代考服务,价格合理,给你前所未有的学习体会。

我们的数学代考服务适用于那些对课程结束没有掌握,或许没有满足的时刻结束网课的同学。高度匹配专业科目,按需结束您的网课考试、数学代写需求。担保买卖支持,100%退款保证,免费赠送Turnitin检测报告。myassignments-help的Math作业代写服务,是你留学路上忠实可靠的小帮手!


统计代写|广义线性模型代写generalized linear model代考|WEIGHTED LEAST-SQUARES REGRESSION

In the first three sections of this chapter the model was confined to $\mathbf{Y}=\mathbf{X} \beta+\mathbf{E}$ where $\mathrm{E}(\mathbf{E})=\mathbf{0}$ and $\operatorname{cov}(\mathbf{E})=\sigma^2 \mathbf{I}n$. In this section, the model $\mathbf{Y}=\mathbf{X} \beta+\mathbf{E}$ is considered when $\mathrm{E}(\mathbf{E})=\mathbf{0}, \operatorname{cov}(\mathbf{E})=\sigma^2 \mathbf{V}$, and $\mathbf{V}$ is an $n \times n$ symmetric, positive definite matrix of known constants. Because $\mathbf{V}$ is positive definite, there exists an $n \times n$ nonsingular matrix $\mathbf{T}$ such that $\mathbf{V}=\mathbf{T T}^{\prime}$. Premultiplying both sides of the model $\mathbf{Y}=\mathbf{X} \beta+\mathbf{E}$ by $\mathbf{T}^{-1}$ we obtain $$ \begin{aligned} \mathbf{T}^{-1} \mathbf{Y} &=\mathbf{T}^{-1} \mathbf{X} \boldsymbol{\beta}+\mathbf{T}^{-1} \mathbf{E} \ \mathbf{Y}{\mathrm{w}} &=\mathbf{X}{\mathrm{w}} \boldsymbol{\beta}+\mathbf{E}{\mathrm{w}}
\end{aligned}
$$
where $\mathbf{Y}{\mathrm{w}}=\mathbf{T}^{-1} \mathbf{Y}, \mathbf{X}{\mathrm{w}}=\mathbf{T}^{-1} \mathbf{X}$, and $\mathbf{E}{\mathrm{w}}=\mathbf{T}^{-1} \mathbf{E}$. Therefore, $\mathbf{E}\left(\mathbf{E}{\mathrm{w}}\right)=$ $\mathbf{T}^{-1} \mathrm{E}(\mathbf{E})=\mathbf{0}{p \times 1}$ and $\operatorname{cov}\left(\mathbf{E}{\mathrm{w}}\right)=\operatorname{cov}\left(\mathbf{T}^{-1} \mathbf{E}\right)=\mathbf{T}^{-1}\left(\sigma^2 \mathbf{V}\right) \mathbf{T}^{-1 \prime}=\sigma^2 \mathbf{I}n$. The weighted least-squares estimators of $\beta$ and $\sigma^2$ are derived using the ordinary leastsquares estimator formulas with the model $\mathbf{Y}{\mathrm{w}}=\mathbf{X}{\mathrm{w}} \boldsymbol{\beta}+\mathbf{E}{\mathrm{w}}$. That is, the weighted least-squares estimators of $\beta$ and $\sigma^2$ are given by
$$
\begin{aligned}
\hat{\boldsymbol{\beta}}{\mathbf{w}} &=\left(\mathbf{X}{\mathbf{w}}^{\prime} \mathbf{X}{\mathbf{w}}\right)^{-1} \mathbf{X}{\mathbf{w}}^{\prime} \mathbf{Y}{\mathbf{w}} \ &=\left(\mathbf{X}^{\prime} \mathbf{T}^{-1} \mathbf{T}^{-1} \mathbf{X}\right)^{-1} \mathbf{X}^{\prime} \mathbf{T}^{-1} \mathbf{T}^{-1} \mathbf{Y} \ &=\left(\mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{X}\right)^{-1} \mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{Y} \end{aligned} $$ and $$ \begin{aligned} \hat{\sigma}{\mathrm{w}}^2 &=\left(\mathbf{Y}{\mathrm{w}}-\mathbf{X}{\mathrm{w}} \hat{\beta}{\mathrm{w}}\right)^{\prime}\left(\mathbf{Y}{\mathrm{w}}-\mathbf{X}{\mathrm{w}} \hat{\beta}{\mathrm{w}}\right) /(n-p) \
&=\left[\mathbf{Y}^{\prime}\left(\mathbf{V}^{-1}-\mathbf{V}^{-1} \mathbf{X}\left(\mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{X}\right)^{-1} \mathbf{X}^{\prime} \mathbf{V}^{-1}\right) \mathbf{Y}\right] /(n-p)
\end{aligned}
$$
The Gauss-Markov theorem can also be generalized for the model $\mathbf{Y}=\mathbf{X} \boldsymbol{\beta}+\mathbf{E}$ where $E(\mathbf{E})=0$ and $\operatorname{cov}(\mathbf{E})=\sigma^2 \mathbf{V}$. For this model, the weighted least-squares estimator of $\mathbf{t}^{\prime} \boldsymbol{\beta}$ is given by $\mathbf{t}^{\prime} \hat{\beta}{\mathrm{w}}=\mathbf{t}^{\prime}\left(\mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{X}\right)^{-1} \mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{Y}$ and $\mathbf{t}^{\prime} \hat{\beta}{\mathrm{w}}$ is the BLUE of $\mathbf{t}^{\prime} \boldsymbol{\beta}$. The proof is left to the reader.

统计代写|广义线性模型代写generalized linear model代考|LACK OF FIT TEST

In this section assume that the $n \times 1$ random error vector $\mathbf{E} \sim \mathrm{N}n\left(\mathbf{0}, \sigma^2 \mathbf{I}_n\right)$. It is of interest to check whether the proposed model adequately fits the data. This lack of fit test requires replicate observations at one or more of the combinations of the $x_1, x_2, \ldots, x{p-1}$ values.

Since the elements of the $n \times 1$ random vector $\mathbf{Y}=\left(Y_1, \ldots, Y_n\right)^{\prime}$ can be listed in any order, we adopt the convention that sets of $Y_i$ values that share the same $x_1, \ldots, x_{p-1}$ values are listed next to each other in the $Y$ vector. For example, in the data set from Table 5.1.1, the $10 \times 1$ vector $\mathbf{Y}=(1.7,2.0,1.9,1.6,3.2,2.0,2.5$, $5.4,5.7,5.1)^{\prime}$ with $Y_1-Y_4$ sharing a speed equal to 20 and a speed $\times$ grade equal to $0, Y_5$ having a speed equal to 20 and a speed $\times$ grade equal to $120, Y_6-Y_7$ sharing a speed equal to 50 and a speed $\times$ grade equal to 0 , and $Y_8-Y_{10}$ sharing a speed equal to 50 and a speed $\times$ grade equal to 300 .

When replicate observations exist within combinations of the $x_1, \ldots, x_{p-1}$ values, the residual sum of squares can be partitioned into a sum of squares due to pure error plus a sum of squares due to lack of fit. The pure error component is a measure of the variation between $Y_i$ observations that share the same $x_1, \ldots, x_{p-1}$ values.

In the example data set from Table 5.1.1, the pure error sum of squares is the sum of squares of $Y_1-Y_4$ around their mean plus the sum of squares of $Y_5$ around its mean (zero in this case), plus the sum of squares of $Y_6-Y_7$ around their mean plus the sum of squares of $Y_8-Y_{10}$ around their mean.
In general the sum of squares pure error is given by
$$
\mathbf{S S} \text { (pure error) }=\mathbf{Y}^{\prime} \mathbf{A}{\text {pe }} \mathbf{Y} $$ where $\mathbf{A}{\text {pe }}$ is an $n \times n$ block diagonal matrix with the $j^{\text {th }}$ block equal to $\mathbf{I}{r_j}-\frac{1}{r_j} \mathbf{J}{r_j}$ for $j=1, \ldots, k$ where $k$ is the number of combinations of $x_1, \ldots, x_{p-1}$ values that contain at least one observation and $r_j$ is the number of $Y_i$ values in the $j^{\text {th }}$ combination with $n=\sum_{j=1}^k r_j$. Note that $\mathbf{A}{p e}$ is an idempotent matrix of rank $n-k$ and $\mathbf{J}_n \mathbf{A}{\text {pe }}=\mathbf{0}{n \times n}$. Furthermore, the first $r_1$ rows of the matrix $\mathbf{X}$ are the same, the next $r_2$ rows of $\mathbf{X}$ are the same, etc. Therefore, $\mathbf{A}{p e} \mathbf{X}=\mathbf{0}{n \times p}$. In balanced data structures $r_1=r_2=\cdots=r_k=r, n=r k$, and the $n \times n$ pure error matrix $\mathbf{A}{\mathrm{pe}}$ can be expressed as the Kronecker product $\mathbf{I}_k \otimes\left(\mathbf{I}_r-\frac{1}{r} \mathbf{J}_r\right)$.

For the fuel, speed, grade data set, the $10 \times 10$ pure error sum of squares matrix $\mathbf{A}_{\text {pe }}$ is derived in the next example.

统计代写|广义线性模型代写generalized linear model代考|STAT6175

广义线性模型代考

统计代写|广义线性模型代写generalized linear model代考|加权最小二乘回归

在本章的前三节中,模型仅限于 $\mathbf{Y}=\mathbf{X} \beta+\mathbf{E}$ 在哪里 $\mathrm{E}(\mathbf{E})=0$ 和 $\operatorname{cov}(\mathbf{E})=\sigma^2 \mathbf{I} n$. 在本节中,模型 $\mathbf{Y}=\mathbf{X} \beta+\mathbf{E}$ 被认为是 $\mathrm{E}(\mathbf{E})=\mathbf{0}, \operatorname{cov}(\mathbf{E})=\sigma^2 \mathbf{V}$ ,和 $\mathbf{V}$ 是一个 $n \times n$ 已知常数的对称正定矩阵。因为 $\mathbf{V}$ 是正定的,存在一个 $n \times n$ 非奇异矩阵 $\mathbf{T}$ 这样 $\mathbf{V}=\mathbf{T T}^{\prime}$. 预乘模型的两边 $\mathbf{Y}=\mathbf{X} \beta+\mathbf{E}$ 经过 $\mathbf{T}^{-1}$ 我们获 得
$$
\mathbf{T}^{-1} \mathbf{Y}=\mathbf{T}^{-1} \mathbf{X} \boldsymbol{\beta}+\mathbf{T}^{-1} \mathbf{E} \mathbf{Y} w \quad=\mathbf{X} w \boldsymbol{\beta}+\mathbf{E w}
$$
在哪里 $\mathbf{Y w}=\mathbf{T}^{-1} \mathbf{Y}, \mathbf{X} w=\mathbf{T}^{-1} \mathbf{X}$ , 和 $\mathbf{E w}=\mathbf{T}^{-1} \mathbf{E}$. 所以, $\mathbf{E}(\mathbf{E w})=\mathbf{T}^{-1} \mathbf{E}(\mathbf{E})=\mathbf{0} p \times 1$ 和 $\operatorname{cov}(\mathbf{E w})=\operatorname{cov}\left(\mathbf{T}^{-1} \mathbf{E}\right)=\mathbf{T}^{-1}\left(\sigma^2 \mathbf{V}\right) \mathbf{T}^{-1 \prime}=\sigma^2 \mathbf{I} n$. 的加权最小二乘估计量 $\beta$ 和 $\sigma^2$ 使用带有模型的普 通最小二乘估计器公式得出 $\mathbf{Y} w=\mathbf{X} w \boldsymbol{\beta}+\mathbf{E w}$. 也就是说,加权最小二乘估计量为 $\beta$ 和 $\sigma^2$ 由
$$
\hat{\boldsymbol{\beta}} \mathbf{w}=\left(\mathbf{X}{\mathbf{w}}^{\prime} \mathbf{X} \mathbf{w}\right)^{-1} \mathbf{X} \mathbf{w}^{\prime} \mathbf{Y} \mathbf{w} \quad=\left(\mathbf{X}^{\prime} \mathbf{T}^{-1} \mathbf{T}^{-1} \mathbf{X}\right)^{-1} \mathbf{X}^{\prime} \mathbf{T}^{-1} \mathbf{T}^{-1} \mathbf{Y}=\left(\mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{X}\right)^{-1} \mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{Y} $$ 和 $$ \hat{\sigma} \mathbf{w}^2=\left(\mathbf{Y} w-\mathbf{X w}{\mathbf{\beta}} \mathbf{w}\right)^{\prime}(\mathbf{Y} w-\mathbf{X} w \hat{\beta} w) /(n-p) \quad=\left[\mathbf{Y}^{\prime}\left(\mathbf{V}^{-1}-\mathbf{V}^{-1} \mathbf{X}\left(\mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{X}\right)^{-1} \mathbf{X}^{\prime} \mathbf{V}^{-1}\right) \mathbf{Y}\right]
$$
高斯-马尔可夫定理也可以推广到模型 $\mathbf{Y}=\mathbf{X} \boldsymbol{\beta}+\mathbf{E}$ 在哪里 $E(\mathbf{E})=0$ 和 $\operatorname{cov}(\mathbf{E})=\sigma^2 \mathbf{V}$. 对于这个模型, 加权最小二乘估计 $\mathbf{t}^{\prime} \beta$ 是 (谁) 给的 $\mathbf{t}^{\prime} \hat{\beta} \mathbf{w}=\mathbf{t}^{\prime}\left(\mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{X}\right)^{-1} \mathbf{X}^{\prime} \mathbf{V}^{-1} \mathbf{Y}$ 和 $\mathbf{t}^{\prime} \hat{\beta} \mathbf{w}$ 是蓝色的 $\mathbf{t}^{\prime} \boldsymbol{\beta}$. 证明留给读者。

统计代写|广义线性模型代写generalized linear model代考|缺乏配合试验

在本节中假设 $n \times 1$ 随机误差向量 $\mathbf{E} \sim \mathrm{N} n\left(\mathbf{0}, \sigma^2 \mathbf{I}n\right)$. 检查提出的模型是否充分拟合数据是有意义的。这 种缺乏拟合检验需要在一个或多个组合的重复观察 $x_1, x_2, \ldots, x p-1$ 价值观。 由于元㨞 $n \times 1$ 随机向量 $\mathbf{Y}=\left(Y_1, \ldots, Y_n\right)^{\prime}$ 可以按任何顺序列出,我们采用约定 $Y_i$ 共享相同的价值观 $x_1, \ldots, x{p-1}$ 值列在彼此旁边 $Y$ 向量。例如,在表 $5.1 .1$ 的数据集中, $10 \times 1$ 向量 $\mathbf{Y}=(1.7,2.0,1.9,1.6,3.2,2.0,2.5,5.4,5.7,5.1)^{\prime}$ 和 $Y_1-Y_4$ 共享一个等于 20 的速度和一个速度 $\times$ 等级 等于 $0, Y_5$ 速度等于 20 和速度 $\times$ 等级等于 $120, Y_6-Y_7$ 共享一个等于 50 的速度和一个速度 $\times$ 等级等于 0 , 和 $Y_8-Y_{10}$ 共享一个等于 50 的速度和一个速度 $\times$ 等级等于 300 。
当重复观测值存在于 $x_1, \ldots, x_{p-1}$ 值,残差平方和可以划分为纯误差的平方和加上缺乏拟合的平方和。纯 淏差分量是衡量两者之间变化的量度 $Y_i$ 有相同的观察 $x_1, \ldots, x_{p-1}$ 价值观。
在表 5.1.1 的示例数据集中,纯误差平方和是 $Y_1-Y_4$ 围绕他们的平均值加上平方和 $Y_5$ 围绕其平均值(在这 种情况下为零),加上平方和 $Y_6-Y_7$ 围绕他们的平均值加上平方和 $Y_8-Y_{10}$ 围绕他们的意思。 通常,纯误差平方和由下式给出
$$
\mathbf{S S}(\text { pure error })=\mathbf{Y}^{\prime} \mathbf{A} \text { pe } \mathbf{Y}
$$
在哪里A pe 是一个 $n \times n$ 块对角矩阵与 $j^{\text {th }}$ 块等于 $\mathbf{I} r_j-\frac{1}{r_j} \mathbf{J} r_j$ 为了 $j=1, \ldots, k$ 在哪里 $k$ 是组合的数量 $x_1, \ldots, x_{p-1}$ 包含至少一个观察值和 $r_j$ 是数量 $Y_i$ 中的值 $j^{\text {th }}$ 结合 $n=\sum_{j=1}^k r_j$. 注意 $\mathbf{A} p e$ 是秩的幂等矩阵 $n-k$ 和 $\mathbf{J}n \mathbf{A p e}=0 n \times n$. 此外,第一个 $r_1$ 矩阵的行 $\mathbf{X}$ 都一样,下一个 $r_2$ 行 $\mathbf{X}$ 是相同的,等等。因此, $\mathbf{A} p e \mathbf{X}=\mathbf{0} n \times p$. 在平衡数据结构中 $r_1=r_2=\cdots=r_k=r, n=r k_r$ 和 $n \times n$ 纯误差矩阵 $\mathbf{A p e}$ 可以表 示为克罗内克积 $\mathbf{I}_k \otimes\left(\mathbf{I}_r-\frac{1}{r} \mathbf{J}_r\right)$. 对于燃料,速度,等级数据集, $10 \times 10$ 纯误差平方和矩阵 $\mathbf{A}{\mathrm{pe}}$ 在下一个示例中得出。

统计代写|广义线性模型代写generalized linear model代考

myassignments-help数学代考价格说明

1、客户需提供物理代考的网址,相关账户,以及课程名称,Textbook等相关资料~客服会根据作业数量和持续时间给您定价~使收费透明,让您清楚的知道您的钱花在什么地方。

2、数学代写一般每篇报价约为600—1000rmb,费用根据持续时间、周作业量、成绩要求有所浮动(持续时间越长约便宜、周作业量越多约贵、成绩要求越高越贵),报价后价格觉得合适,可以先付一周的款,我们帮你试做,满意后再继续,遇到Fail全额退款。

3、myassignments-help公司所有MATH作业代写服务支持付半款,全款,周付款,周付款一方面方便大家查阅自己的分数,一方面也方便大家资金周转,注意:每周固定周一时先预付下周的定金,不付定金不予继续做。物理代写一次性付清打9.5折。

Math作业代写、数学代写常见问题

留学生代写覆盖学科?

代写学科覆盖Math数学,经济代写,金融,计算机,生物信息,统计Statistics,Financial Engineering,Mathematical Finance,Quantitative Finance,Management Information Systems,Business Analytics,Data Science等。代写编程语言包括Python代写、Physics作业代写、物理代写、R语言代写、R代写、Matlab代写、C++代做、Java代做等。

数学作业代写会暴露客户的私密信息吗?

我们myassignments-help为了客户的信息泄露,采用的软件都是专业的防追踪的软件,保证安全隐私,绝对保密。您在我们平台订购的任何网课服务以及相关收费标准,都是公开透明,不存在任何针对性收费及差异化服务,我们随时欢迎选购的留学生朋友监督我们的服务,提出Math作业代写、数学代写修改建议。我们保障每一位客户的隐私安全。

留学生代写提供什么服务?

我们提供英语国家如美国、加拿大、英国、澳洲、新西兰、新加坡等华人留学生论文作业代写、物理代写、essay润色精修、课业辅导及网课代修代写、Quiz,Exam协助、期刊论文发表等学术服务,myassignments-help拥有的专业Math作业代写写手皆是精英学识修为精湛;实战经验丰富的学哥学姐!为你解决一切学术烦恼!

物理代考靠谱吗?

靠谱的数学代考听起来简单,但实际上不好甄别。我们能做到的靠谱,是把客户的网课当成自己的网课;把客户的作业当成自己的作业;并将这样的理念传达到全职写手和freelancer的日常培养中,坚决辞退糊弄、不守时、抄袭的写手!这就是我们要做的靠谱!

数学代考下单流程

提早与客服交流,处理你心中的顾虑。操作下单,上传你的数学代考/论文代写要求。专家结束论文,准时交给,在此过程中可与专家随时交流。后续互动批改

付款操作:我们数学代考服务正常多种支付方法,包含paypal,visa,mastercard,支付宝,union pay。下单后与专家直接互动。

售后服务:论文结束后保证完美经过turnitin查看,在线客服全天候在线为您服务。如果你觉得有需求批改的当地能够免费批改,直至您对论文满意为止。如果上交给教师后有需求批改的当地,只需求告诉您的批改要求或教师的comments,专家会据此批改。

保密服务:不需求提供真实的数学代考名字和电话号码,请提供其他牢靠的联系方法。我们有自己的工作准则,不会泄露您的个人信息。

myassignments-help擅长领域包含但不是全部:

myassignments-help服务请添加我们官网的客服或者微信/QQ,我们的服务覆盖:Assignment代写、Business商科代写、CS代考、Economics经济学代写、Essay代写、Finance金融代写、Math数学代写、report代写、R语言代考、Statistics统计学代写、物理代考、作业代写、加拿大代考、加拿大统计代写、北美代写、北美作业代写、北美统计代考、商科Essay代写、商科代考、数学代考、数学代写、数学作业代写、physics作业代写、物理代写、数据分析代写、新西兰代写、澳洲Essay代写、澳洲代写、澳洲作业代写、澳洲统计代写、澳洲金融代写、留学生课业指导、经济代写、统计代写、统计作业代写、美国Essay代写、美国代考、美国数学代写、美国统计代写、英国Essay代写、英国代考、英国作业代写、英国数学代写、英国统计代写、英国金融代写、论文代写、金融代考、金融作业代写。