R 语言最常用于数据分析工具和统计应用程序。为了在 Google Cloud Platform(GCP) 上为 R 编程语言提供更多支持,Google 宣布推出 Cloud Dataproc 上的 Spark 测试版。据谷歌称,云计算的兴起为 R 开辟了新的机遇。 使用GCP for R 可以避免限制理解数据的基础设施障碍,例如选择要计算的数据集,因为计算或数据大小限制而不能正确执行。借助 GCP,您可以构建大型模型来分析以前需要在高性能计算基础架构上进行大量前期投资的大小数据集,『Dataproc 和 Hadoop 产品经理 Christopher Crosbie 和机器学习专家 Mikhail Chrestkha 在博客文章写道。 Cloud Dataproc 是 GCP 上 Apache Spark 和 Apache Hadoop 集群的托管云服务,而 SparkR 是一个轻量级软件包,可以在前端实现来自 R的Apache Spark,该公司解释说。 『这种集成使使用R语言的开发人员可以对存储在云存储中的任何大小的数据集进行类似 dplyr 的操作。SparkR 还支持使用 MLlib 进行分布式机器学习。您可以使用此集成来处理大型云存储数据集或执行计算密集型工作』Crosbie和Chrestkha 写道。 有关开发人员如何在 GCP 上使用 R 的更多方法,请 点击此处 。 此外,谷歌还宣布了针对 App Engine 的 Cloud Spanner 和 Python 3.7 的新改进。 App Engine 现在在 GCP 上引入了第二代 Python 运行时。据该公司称,开发人员现在可以使用 Python Package Index 或私有存储库中的依赖项。Cloud Scheduler 和 Cloud Tasks 也已与 App Engine 分离,因此开发人员可以在所有 GCP 服务中使用这些功能。 |