德赢官网德赢官网


vwin德赢网app

FB发布了Nevergrad_IT News,这是一个用于无梯度优化的开源工具

    大多数机器学习任务,从自然语言处理、图像分类到翻译,以及大量的其他任务,都依赖于无梯度优化来调整模型中的参数和/或超参数。为了使参数/超参数调整更快、更简单,Facebook创建了一个名为Nevergrad(https://github.com/facebook./nevergrad)的Python 3库,并发布了它的开放源代码。Nevergrad提供了许多与梯度无关的优化算法,并将它们呈现在标准的问答Python框架中。此外,Nevergrad还包括测试和评估工具。Nevergrad现在对公众开放,人工智能研究人员和其他无梯度的优化工作者可以立即使用它来帮助他们的工作。这个平台不仅使他们能够实现最先进的算法和方法,在不同的设置中比较他们的性能,而且帮助机器学习科学家为特定的用例找到最佳的优化器。在Facebook人工智能研究所(FaIR),研究人员将Nevergrad应用于强化学习、图像生成和其他领域的各种项目。例如,它可以取代参数扫描,以帮助更好地调整机器学习模型。差分进化(差分进化)序列二次规划(FastGA)协方差矩阵自适应(协方差矩阵自适应)噪声管理的全控制方法(噪声管理的人口控制方法)粒子群优化(PSO)以前已经被使用。过去,研究人员需要编写自己的算法,这使得他们很难在不同的最新方法之间进行比较,有时甚至完全无法进行比较。现在,通过使用Nevergrad,AI开发人员可以容易地测试针对特定机器学习问题的不同方法,然后比较结果。或者,他们可以使用众所周知的基准来评估新的无梯度优化方法与当前可用的最高级方法的比较。Nevergrad中包含的无梯度优化方法可以应用于各种机器学习问题,如多模态问题,如具有多个局部最小值的问题。(例如,用于语言建模的深度学习的超参数化。)当优化具有完全不同的动态特性的多变量(例如,未针对特定问题调整的丢弃和学习率)时,通常出现病态问题。可分离或旋转问题,包括部分旋转问题。部分可分问题可以通过几个变量块来解决。示例包括深入学习或其他设计形式的体系结构搜索,以及多任务网络的参数化。离散的、连续的或混合的问题。这些问题可以包括电力系统(因为一些电站具有可调的连续输出,而其它电站具有连续或半连续输出)或需要在每个级别同时选择学习速率、权重衰减和非线性类型的神经网络任务。噪声问题,也就是说,当用完全相同的参数调用一个函数时,它可以返回不同的结果,例如强化学习中的不同级别。在机器学习中,Nevergrad可以用来调整参数,如学习速率、动量、权重衰减(也许是每一层)、丢弃(丢弃)算法、深层网络各部分的层参数等。更一般地,非梯度方法也用于电网管理(https://www.sciencedirect.com/././pii/S0142061597000409)、航空(https://www.sciencedirect.com/././pii/S0142061597000409)、透镜设计(https://www.arch..net/publication/222434804_.-._._with_._._.)和m任何其他科学和工程应用。为什么需要梯度优化?在某些情况下,如神经网络的加权优化,用解析法计算函数的梯度是简单的。然而,在其他情况下,例如当计算函数f较慢或域不连续时,无法预测函数的梯度。在这些应用中,无梯度方法提供了一种解决方案。一种简单的无梯度解是随机搜索,它由大量搜索点的随机抽样、每个搜索点的评价和最佳搜索点的选择组成。随机搜索在很多简单场景中表现良好,但在高维场景中表现不佳。通常用于调整机器学习参数的网格搜索也面临类似的限制。然而,还有许多选择:一些来自应用数学,如序列二次规划,它更新了模拟器的二次近似;贝叶斯优化也建立了目标函数模型,包括不确定性模型;进化计算涉及选择、变异和混合等许多工作。有前途的变体。这个例子展示了进化算法是如何工作的。在函数空间中采样搜索点,选择最佳点社区,然后围绕现有点推荐新点,以优化当前点社区。使用Nevergrad生成算法基准,Facebook的研究团队使用Nevergrad实现几个基准,以证明特定算法在特定情况下表现最好。这些众所周知的示例对应于各种设置(多峰值或非多峰值、噪声或非噪声、离散或非离散、病态或非病态),并展示如何使用Nevergrad来确定最优算法。在每个基准测试中,Facebook团队分别测试不同的X值。这确保了方法在几个X值上的一致排序在统计学上是显著的。除了以下两个基准测试示例之外,这里还有一个更全面的列表(https://github.com/facebook./nevergrad/blob/master/docs/bench..md),其中给出了如何使用简单的命令行重新运行这些基准测试的说明。该图显示了噪声优化的示例,它显示了使用pcCMSA-ES噪声管理原理(https://homepages.fhv.at/hgb/New-Papers/PPSN16_HB16.pdf)的TBPSA在性能上如何优于几种替代方案。Facebook的研究小组在这里只将TBPSA与算法的有限示例进行了比较,但它的性能也优于其他方法。Nevergrad平台还可以执行出现在许多机器学习场景中的离散目标函数。这些场景包括,例如,在有限的一组选项(例如,神经网络的激活函数)中进行选择,以及在不同类型的层中进行选择(例如,决定是否跳过网络中某些位置的连接)。现有的替代平台(Bbob和Court)不包含任何离散的基准。Nevergrad可以执行由软最大函数(将离散问题转换为噪声连续问题)或连续变量离散化处理的离散域。Facebook团队指出,FastGA(https://arxiv.org/abs/1703.03334)在此场景中表现最好。DoubleFastGA对应于1/dim和(dim-1)/dim之间的突变率,但不是1/dim和1/2。这是因为原始范围对应于二进制域,这里它们考虑任何域。简单和一致的突变率混合(https://arxiv.org/abs/1606.05551)在几个场景中表现良好。为研究人员和机器学习科学家扩展工具箱Faacebook将继续向Nevergrad添加特性,以帮助研究人员创建和评估新算法。最初的版本具有基本的手动测试能力,但是Facebook计划增加更多的特性,包括表示物理模型的能力。在应用方面,他们将继续使Nevergrad更容易使用,并尝试用它来优化PyTorch强化学习模型的参数,该模型不能很好地确定梯度。Nevergrad还可以帮助其他任务,如A/B测试和任务调度来扫描参数。通过https://code.fb.com/ai-./nevergrad/

欢迎阅读本文章: 金龙

vwin德赢体育app

vwin德赢网app