数学代写|凸优化代写Convex Optimization代考|ESE605 Near-optimality

如果你也在 怎样代写凸优化Convex optimization ESE605这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

海外留学生论文代写;英美Essay代写佼佼者!

EssayTA有超过2000+名英美本地论文代写导师, 覆盖所有的专业和学科, 每位论文代写导师超过10,000小时的学术Essay代写经验, 并具有Master或PhD以上学位.

EssayTA™在线essay代写、散文、论文代写,3分钟下单,匹配您专业相关写作导师,为您的留学生涯助力!

我们拥有来自全球顶级写手的帮助,我们秉承:责任、能力、时间,为每个留学生提供优质代写服务

论文代写只需三步, 随时查看和管理您的论文进度, 在线与导师直接沟通论文细节, 在线提出修改要求. EssayTA™支持Paypal, Visa Card, Master Card, 虚拟币USDT, 信用卡, 支付宝, 微信支付等所有付款方式.

数学代写|凸优化代写Convex Optimization代考|ESE605 Near-optimality

数学代写|凸优化代写Convex Optimization代考|Near-optimality

Observe that by properly selecting $\phi_{i j}$ and $\alpha_{i j}$ we can make, in a computationally efficient manner, the upper bound $\rho$ on the $\epsilon$-risk of the above estimate arbitrarily close to
$$
\operatorname{Opt}(K)=\max {1 \leq i, j \leq I} \operatorname{Opt}{i j}(K) .
$$
We are about to demonstrate that the quantity $\operatorname{Opt}(K)$ “nearly lower-bounds” the minimax optimal $\epsilon$-risk
$$
\operatorname{Risk}\epsilon^*(K)=\inf {\widehat{g}(\cdot)} \operatorname{Risk}_\epsilon[\widehat{g}],
$$

the infimum being taken over all estimates (all Borel functions of $\omega^K$ ). The precise statement is as follows:

Proposition 3.3. In the situation of this section, let $\epsilon \in(0,1 / 2)$ and $\bar{K}$ be a positive integer. Then for every integer $K$ satisfying
$$
K / \bar{K}>\frac{2 \ln (2 I / \epsilon)}{\ln \left(\frac{1}{4 \epsilon(1-\epsilon)}\right)}
$$
one has
$$
\operatorname{Opt}(K) \leq \operatorname{Risk}\epsilon^(\bar{K}) $$ In addition, in the special case where for every $i, j$ there exists $x{i j} \in X_i \cap X_j$ such that $A_i\left(x_{i j}\right)=A_j\left(x_{i j}\right)$ one has
$$
K \geq \bar{K} \Rightarrow \mathrm{Opt}(K) \leq \frac{2 \ln (2 I / \epsilon)}{\ln \left(\frac{1}{4 \epsilon(1-\epsilon)}\right)} \operatorname{Risk}_\epsilon^(\bar{K})
$$
For proof, see Section 3.6.1.

数学代写|凸优化代写Convex Optimization代考|Illustration

We illustrate our construction with the simplest possible example in which $X_i=$ $\left{x_i\right}$ are singletons in $\mathbf{R}^n, i=1, \ldots, I$, and the observation scheme is Gaussian. Thus, setting $y_i=A_i\left(x_i\right) \in \mathbf{R}^m$, the observation’s components $\omega_k, 1 \leq k \leq$ $K$, stemming from the signal $x_i$, are drawn, independently of each other, from the normal distribution $\mathcal{N}\left(y_i, I_m\right)$. The family $\mathcal{F}$ of functions $\phi$ associated with Gaussian o.s. is the family of all affine functions $\phi(\omega)=\phi_0+\varphi^T \omega$ on the observation space (which at present is $\mathbf{R}^m$; ; we identify $\phi \in \mathcal{F}$ with the pair $\left(\phi_0, \varphi\right)$. The function $\Psi_{\mathcal{O}}$ associated with the Gaussian observation scheme with $m$-dimensional observations is
$$
\Phi_{\mathcal{O}}(\phi ; \mu)=\phi_0+\varphi^T \mu+\frac{1}{2} \varphi^T \varphi:\left(\mathbf{R} \times \mathbf{R}^m\right) \times \mathbf{R}^m \rightarrow \mathbf{R} ;
$$
a straightforward computation shows that in the case in question, setting
$$
\theta=\ln (2 I / \epsilon),
$$

we have
$$
\begin{aligned}
\Psi_{i,+}(\alpha, \phi) &=K \alpha\left[\phi_0+\varphi^T y_i / \alpha+\frac{1}{2} \varphi^T \varphi / \alpha^2\right]+\alpha \theta-g^T x_i \
&=K \alpha \phi_0+K \varphi^T y_i-g^T x_i+\frac{K}{2 \alpha} \varphi^T \varphi+\alpha \theta \
\Psi_{j,-}(\alpha, \phi) &=-K \alpha \phi_0-K \varphi^T y_j+g^T x_j+\frac{K}{2 \alpha} \varphi^T \varphi+\alpha \theta \
\operatorname{Opt}{i j} &=\inf {\alpha>0, \phi} \frac{1}{2}\left[\Psi_{i,+}(\alpha, \phi)+\Psi_{j,-}(\alpha, \phi)\right] \
&=\frac{1}{2} g^T\left[x_j-x_i\right]+\inf {\varphi}\left[\frac{K}{2} \varphi^T\left[y_i-y_j\right]+\inf {\alpha>0}\left[\frac{K}{2 \alpha} \varphi^T \varphi+\alpha \theta\right]\right] \
&=\frac{1}{2} g^T\left[x_j-x_i\right]+\inf _{\varphi}\left[\frac{K}{2} \varphi^T\left[y_i-y_j\right]+\sqrt{2 K \theta}|\varphi|_2\right] \
&=\left{\begin{array}{l}
\frac{1}{2} g^T\left[x_j-x_i\right], \quad\left|y_i-y_j\right|_2 \leq 2 \sqrt{2 \theta / K} \
-\infty, \quad\left|y_i-y_j\right|_2>2 \sqrt{2 \theta / K}
\end{array}\right.
\end{aligned}
$$

数学代写|凸优化代写Convex Optimization代考|ESE605 Near-optimality

凸优化代写

数学代写|凸优化代写凸优化代考|近似优化

.凸优化 .凸优化数学代写|凸优化代写凸优化代考|


观察到,通过适当地选择$\phi_{i j}$和$\alpha_{i j}$,我们可以以一种计算有效的方式,使上述估计的$\epsilon$ -风险的上界$\rho$任意接近
$$
\operatorname{Opt}(K)=\max {1 \leq i, j \leq I} \operatorname{Opt}{i j}(K) .
$$
。我们将要证明数量$\operatorname{Opt}(K)$“接近下界”的极小最大最优$\epsilon$ -风险
$$
\operatorname{Risk}\epsilon^*(K)=\inf {\widehat{g}(\cdot)} \operatorname{Risk}_\epsilon[\widehat{g}],
$$

取所有估计的极值($\omega^K$的所有Borel函数)。准确的表述如下:

命题3.3。在本节的情况下,设$\epsilon \in(0,1 / 2)$和$\bar{K}$为正整数。然后,对于每个整数$K$满足
$$
K / \bar{K}>\frac{2 \ln (2 I / \epsilon)}{\ln \left(\frac{1}{4 \epsilon(1-\epsilon)}\right)}
$$
一个有
$$
\operatorname{Opt}(K) \leq \operatorname{Risk}\epsilon^(\bar{K}) $$此外,在特殊情况下,对于每个$i, j$存在$x{i j} \in X_i \cap X_j$,使得$A_i\left(x_{i j}\right)=A_j\left(x_{i j}\right)$有
$$
K \geq \bar{K} \Rightarrow \mathrm{Opt}(K) \leq \frac{2 \ln (2 I / \epsilon)}{\ln \left(\frac{1}{4 \epsilon(1-\epsilon)}\right)} \operatorname{Risk}_\epsilon^(\bar{K})
$$
证明参见3.6.1节

数学代写|凸优化代写凸优化代考|插图


我们用最简单的例子来说明我们的构造,其中$X_i=$$\left{x_i\right}$是$\mathbf{R}^n, i=1, \ldots, I$中的单例,并且观测方案是高斯的。因此,在设置$y_i=A_i\left(x_i\right) \in \mathbf{R}^m$时,从正态分布$\mathcal{N}\left(y_i, I_m\right)$中提取的来自信号$x_i$的观测分量$\omega_k, 1 \leq k \leq$$K$彼此独立。与高斯o.s.相关的函数$\phi$的族$\mathcal{F}$是观察空间上所有仿射函数$\phi(\omega)=\phi_0+\varphi^T \omega$的族(目前是$\mathbf{R}^m$;;我们把$\phi \in \mathcal{F}$和一对$\left(\phi_0, \varphi\right)$联系起来。与具有$m$维观测的高斯观测方案相关联的函数$\Psi_{\mathcal{O}}$是
$$
\Phi_{\mathcal{O}}(\phi ; \mu)=\phi_0+\varphi^T \mu+\frac{1}{2} \varphi^T \varphi:\left(\mathbf{R} \times \mathbf{R}^m\right) \times \mathbf{R}^m \rightarrow \mathbf{R} ;
$$
一个简单的计算表明,在上述情况下,设置
$$
\theta=\ln (2 I / \epsilon),
$$

我们有
$$
\begin{aligned}
\Psi_{i,+}(\alpha, \phi) &=K \alpha\left[\phi_0+\varphi^T y_i / \alpha+\frac{1}{2} \varphi^T \varphi / \alpha^2\right]+\alpha \theta-g^T x_i \
&=K \alpha \phi_0+K \varphi^T y_i-g^T x_i+\frac{K}{2 \alpha} \varphi^T \varphi+\alpha \theta \
\Psi_{j,-}(\alpha, \phi) &=-K \alpha \phi_0-K \varphi^T y_j+g^T x_j+\frac{K}{2 \alpha} \varphi^T \varphi+\alpha \theta \
\operatorname{Opt}{i j} &=\inf {\alpha>0, \phi} \frac{1}{2}\left[\Psi_{i,+}(\alpha, \phi)+\Psi_{j,-}(\alpha, \phi)\right] \
&=\frac{1}{2} g^T\left[x_j-x_i\right]+\inf {\varphi}\left[\frac{K}{2} \varphi^T\left[y_i-y_j\right]+\inf {\alpha>0}\left[\frac{K}{2 \alpha} \varphi^T \varphi+\alpha \theta\right]\right] \
&=\frac{1}{2} g^T\left[x_j-x_i\right]+\inf _{\varphi}\left[\frac{K}{2} \varphi^T\left[y_i-y_j\right]+\sqrt{2 K \theta}|\varphi|_2\right] \
&=\left{\begin{array}{l}
\frac{1}{2} g^T\left[x_j-x_i\right], \quad\left|y_i-y_j\right|_2 \leq 2 \sqrt{2 \theta / K} \
-\infty, \quad\left|y_i-y_j\right|_2>2 \sqrt{2 \theta / K}
\end{array}\right.
\end{aligned}
$$

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。



博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。



微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。



计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。



MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注