[西门子] 基于 Amazon 和西门子工业边缘的云边协同方案

[复制链接]
查看73711 | 回复0 | 2024-12-8 13:52:38 | 显示全部楼层 |阅读模式
解决方案概述

▌什么是边缘计算?

边缘计算,是指在靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台,就近提供最近端服务。其应用程序在边缘侧发起,产生更快的网络服务响应,满足行业在实时业务、应用智能、安全与隐私保护等方面的基本需求。

边缘计算技术在工业场景的应用,成为了工厂数字化转型的必经之路。

在工业场景中,边缘是最靠近现场数据源的层级,将数据进行采集和处理,并在本地进行运算和反馈。边缘计算可以将诸如预测性维护、质量检测等任务下沉到工业现场层,从而使工业控制领域得到进一步延伸和拓展。

▌为什么客户需要考虑工业边缘与云端的结合?

近年来,随着工厂数字化、智能化程度的提高,工业界越来越关注生产数据的价值,同时智能化生产也成为许多工业客户的切身诉求。而 IT 技术的迅猛发展也为实现上述目标提供了无限可能。将 IT 技术与 OT 技术相融合,促进工厂数字化、智能化程度的进一步提升,已然成为业界发展的趋势。

在数字化转型过程中,工业现场往往面临以下挑战:

▪  将 AI/ML 等先进技术与传统工控设备结合有一定难度。

▪  工业现场数据来源广,数据量大,且实时性、安全性要求高。

▪  用户希望在应用 IoT、数据分析及 ML 的中新技术时,使用管理复杂度低但灵活度高的解决方案。

为解决上述问题,工业客户不约而同地期待能够在生产设备端部署一套具备数据采集与处理能力,拥有足够计算能力,能够即插即用的解决方案。而近年来蓬勃发展的边缘计算技术,恰好满足了这一需求。

▌西门子工业边缘是什么?

西门子工业边缘是一种边缘解决方案,该方案可以帮助您充分挖掘机器和工厂数据的潜力,结合云端的能力生成新的业务模式从而提高您的竞争优势。

▌Amazon 与西门子工业边缘的云边协同方案优势是什么?

1

充分利用 Amazon 的数据分析和 ML 服务

虽然边缘计算具有低延迟和数据本地化的优势,但本地计算和存储资源有限,无法支持数据分析和 AI/ML(有/无 GPU)等复杂计算场景,Amazon 可以解决这个问题。 Amazon 可以提供各种云原生的分析 AI/ML 服务,如  Amazon SageMaker、Amazon Glue、Amazon EMR 等,充分发挥云端资源扩展的力量。



2

在亚马逊云科技端构建功能强大的数据湖

本地设备或传感器每秒都会产生大量数据,但是边缘的存储容量有限,并且没有专业的工具来管理数据。利用亚马逊云科技存储服务(如 Amazon S3),客户可以高效构建集中且安全的数据湖。

3

分布式、敏捷以及低管理复杂度

使用 Industrial Edge 进行本地数据处理,同时可以通过 Amazon IoT Core、Amazon IoT SiteWise 等服务将数据快速上云并提供看板展示。针对 ML 场景,您可以轻松实现云端训练和边缘推理的最佳实践。边缘设备和应用程序通过西门子工业边缘集中管理减少了部署和维护支出,云上托管服务即开即用,降低运维工作量。

4

降低存储和传输的成本

Industrial Edge 支持就近实时分析数据,无需将全部数据保存到云端,满足数据的实时性及本地合规的需求。来自物联网设备的数据可以在本地进行预处理或脱敏后再发送到云端进行长期存储以及复杂的数据分析/建模等。

▌西门子工业边缘 Cloud Connector

利用云端的优势,对工业现场产生的海量数据进行分析与训练,或者实现云上的数据展示和存储,是许多工业用户的诉求。西门子工业边缘也为数据上云提供了解决方案。例如,使用西门子官方提供的 Cloud Connector,可以便捷地将设备产生的数据上传至云服务器。通过 Cloud Connector,您可以非常方便地连接到亚马逊云科技(上传证书,输入 MQTT topic 名称以及消息队列的 URL 地址)。



除了通过西门子官方提供的 Cloud Connector 连接云服务器以外,西门子工业边缘设备也支持通过亚马逊云科技提供的 SDK,自行开发云连接 APP,实现云——边——端的协同。

解决方案技术架构



特别说明:此技术架构作为解决方案指导供客户使用,在实际的项目中会根据具体的需求进行选择,并非全部服务都必须使用。针对 IoT 数据接入,您可以只选择 IoT SiteWise、IoT Event 以及 IoT Core 服务。针对数据湖以及数据分析,您可以只选择 Amazon Kinesis、Amazon S3、Amazon Glue 以及 Amazon Athena。针对数据仓库,您在数据湖和分析的基础上增加 Amazon Redshift。针对 ML 场景,可以增加使用 Amazon SageMaker。最后,针对应用的 CI/CD,可以选择使用 Amazon CodeCommit 以及 Amazon CodeBuild 等。

1. 在西门子工业边缘设备中运行的南向连接器支持不同协议连接到工厂中的设备或者网关。西门子工业边缘管理平台负责将南向连接器部署到工业边缘设备中并做集中的管理。

2. 云连接器与亚马逊云科技之间建立连接,通过 MQTT 协议以 TLS 加密的方式将数据传输到云端。

3. 时序数据以流的方式注入到亚马逊云科技的 IoT Core 服务,IoT Core 服务再通过不同的 IoT Rule 将数据转发到 Amazon IoT SiteWise、 Amazon Kinesis Data Streams 以及 Amazon IoT Events 等其它的云服务。

4. Amazon IoT Events 处理数据并基于业务逻辑触发事件通知。

5. Amazon Kinesis Data Firehose 将数据直接转储到 Amazon S3 桶中,Amazon Glue 对数据进行 ETL 处理后,提供给后续的 Amazon SageMaker 以及 Amazon Redshift 做数据消费。

6. 基于 Amazon CodePipeline、Amazon CodeCommit 以及 Amazon CodeBuild 在云端构建 CI/CD 流水线,流水线中处理的工业边缘 API 和 Amazon IoT 作业将 Docker 映像和配置文件发布到西门子工业边缘管理平台。

Demo 演示

验证 Amazon 与 Industry Edge 之间的集成。Industry Edge 已经提供了一个云连接器,可以通过证书导入连接到 IoT Core。IED 设备将在 IoT Core 中注册为事物。 通过该配置,Industry Edge 可以通过 MQTT 主题将数据传输到 Amazon。数据在云端保存后,我们可以进一步存储、分析、显示甚至使用数据进行 ML。西门子有一个模拟的智能农场环境,其中包含多个传感器来收集温度、湿度、设备状态等。我们会将这些数据收集到云端并进一步处理数据。



POC 架构



▪  传感器数据从 Industry Edge (IED) 注入到 IoT Core,并通过 IoT Rule 转发到 IoT Sitewise。原始数据(属性)和聚合数据(指标)都可以显示在自定义的 Sitewise 仪表板中。原始数据也将每5分钟通过 Kinesis Firehose 传输到 S3,S3 作为数据湖长期存储原始/聚合/处理数据。

▪  S3 中的原始数据(步骤1)由 Amazon Glue 进一步处理,表的结构由 Glue Crawler 自动生成。通过 Glue 作业将数据格式从 CSV 转换为 Parquet,客户可以定义更复杂的 ETL 流程。Parquet 格式的数据将再次被 Glue Crawler 解析。 所有步骤均由 Glue Workflows 完成编排,并自动每天执行一次。客户可以在 Amazon Athena 中使用 SQL 语句查询无论数据格式是 CSV 还是 Parquet 的结果,对数据进行进一步处理。

▪  Sagemaker 用作 ML 模型开发和训练,训练数据在前面的步骤中已被保存到 S3。模型的文件在训练工作完成后存储回 S3。Industry Edge (IEM) 中管理的应用程序下载模型并将其部署在应用程序中。最终用户可以使用此应用程序进行预测。

配置步骤

▌先决条件

▪  亚马逊云科技测试账号。

▪  农作物培育箱和传感器 (仅完整 Demo 需要)。

由于 Demo 的后续配置过程已通过 Amazon CloudFormation 实现自动化,我们推荐在培育箱中使用和如下内容相同的传感器或者模拟生成相同的配置。关于传感器和开关的具体配置,您可以联系 jiamin.wang@siemens.com。

已使用的传感器和开关:
{“name”: “SoilTemp”, “id”: “101”, “dataType”: “Real”},{“name”: “Illumination”, “id”: “102”, “dataType”: “DInt”},{“name”: “AirTemp”, “id”: “103”, “dataType”: “Real”},{“name”: “SoilHumi”, “id”: “104”, “dataType”: “Real”},{“name”: “CO2”, “id”: “105”, “dataType”: “DInt”},{“name”: “AirHumidity”, “id”: “106”, “dataType”: “Real”},{“name”: “Auto_Manu”, “id”: “107”, “dataType”: “Bool”},{“name”: “Heating”, “id”: “108”, “dataType”: “Bool”},{“name”: “Pump”, “id”: “109”, “dataType”: “Bool”},{“name”: “Fan”, “id”: “110”, “dataType”: “Bool”},{“name”: “RedLight”, “id”: “111”, “dataType”: “Bool”},{“name”: “BlueLight”, “id”: “112”, “dataType”: “Bool”},{“name”: “WhiteLight”, “id”: “113”, “dataType”: “Bool”},{“name”: “FanManu”, “id”: “114”, “dataType”: “Bool”},{“name”: “WhiteLightManu”, “id”: “115”, “dataType”: “Bool”},{“name”: “RedLightManu”, “id”: “116”, “dataType”: “Bool”},{“name”: “PumpManu”, “id”: “117”, “dataType”: “Bool”},{“name”: “HeatingManu”, “id”: “118”, “dataType”: “Bool”},{“name”: “DAY”, “id”: “119”, “dataType”: “Byte”},{“name”: “BlueLightManu”, “id”: “120”, “dataType”: “Bool”},{“name”: “Month”, “id”: “121”, “dataType”: “Byte”},{“name”: “Year”, “id”: “122”, “dataType”: “Int”},{“name”: “AutoLightTime”, “id”: “123”, “dataType”: “Real”},{“name”: “LongDay”, “id”: “124”, “dataType”: “Bool”},{“name”: “ShortDay”, “id”: “125”, “dataType”: “Bool”},{“name”: “LightManualStop”, “id”: “126”, “dataType”: “Bool”},{“name”: “LightTime”, “id”: “127”, “dataType”: “Real”},{“name”: “LightHalfAuto”, “id”: “128”, “dataType”: “Bool”},{“name”: “AgeDays”, “id”: “129”, “dataType”: “Int”},{“name”: “SetAgeStart”, “id”: “130”, “dataType”: “Bool”}
左滑查看更多

▪  西门子 PLC 硬件及工业边缘软件 (仅完整 Demo 需要)。

如需在您的亚马逊云科技测试账号中完整实现 Demo 的环境,请联系西门子工业边缘团队咨询如何获取西门子硬件(如 HMI,PLC 以及 IPC)以及工业边缘软件,并获得相应的部署支持。请联系 jiamin.wang@siemens.com。

▌云资源准备

选择一: 如果您已经获取了西门子硬件以及工业边缘软件,请使用此 CloudFormation 脚本在您的账号中自动创建并配置部分云资源。当 CloudFormation 执行成功后,您需要下载证书文件 (.crt) 和私钥文件 (.key) 到您的本地,然后将它们导入到工业边缘连接器 (connector)。您也需要在工业边缘连接器中使用和 CloudFormation 中相同的消息 topic 名称。请联系 jiamin.wang@siemens.com 咨询如何导入文件到连接器。请注意您必须使用和前面章节介绍的相同的传感器/开关,否则您还需要在 CloudFormation 执行完毕后调整 Sitewise 和 IoT Core 两个部分的配置,使 Sitewise 中的模型配置以及 IoT Core 中的转发规则与您实际的传感器/开关 保持一致。

CloudFormation 脚本:

https://github.com/FrankieCheng/smartfarmdemo/blob/main/cfn/withoutEC2-20220513.yaml

Sitewise:

https://docs.amazonaws.cn/iot-sitewise/latest/userguide/what-is-sitewise.html

IoT Core:

https://docs.amazonaws.cn/iot/latest/developerguide/iot-rule-actions.html

如何下载证书和私钥文件?

▪  登录到您的亚马逊云科技管理控制台切换到 CloudFormation 服务,从 Systems Manager – Parameter Store 中获取证书和私钥的内容。



▪  点击 ‘IoTCertificateKeyURL’  和  ‘IoTCertificatePrivateKeyURL’ 的输出 URL,页面会被重定向到 Parameter Store。





▪  复制 ‘/smartfarm/certificatePem’ 对应的值并保存成文件 csr,复制 ‘/smartfarm/keyPair/PrivateKey’ 对应的值并保存成文件 privatekey.key。

选择二:如果您只希望测试亚马逊云科技端的部分,请在您的账号中使用此 CloudFormation 脚本。这个CloudFormation 脚本会额外创建一个 EC2 虚拟机,此虚拟机会被用于模拟传感器生成和真实环境相同配置的数据格式并实时注入数据到 Amazon IoT 服务。

CloudFormation 脚本:

https://github.com/FrankieCheng/smartfarmdemo/blob/main/cfn/withEC2-20220513.yaml

▌测试亚马逊云科技服务

1

IoT Core/Sitewise/Kinesis/S3

CloudFormation 执行成功后,会自动完成 IoT Core/Sitewise/Kinesis Firehose/S3 的配置。您可以从亚马逊云科技服务控制台检查配置。我们只展示部分关键配置。

IoT Sitewise

模型架构:两层架构:Smart Farm 作为父层,各种类型的传感器/设备作为子层。{Byte, DInt, Int} 匹配 Int,Real 匹配 Double,Bool 匹配 Bool。最终会生成4个模型。Smart Farm 模型包括其他三个。



Asset 架构:使用之前创建的模型为每一个传感器/开关创建一个资产,一共有30个资产会被创建,这些资产归属于 Smart_Farm 资产。



接下来我们需要配置后续在 Sitewise Dashboard 中使用的的告警。

▪  选择您希望添加告警的模型并切换到 Alarm definitions。



▪  点击 Add Alarm 为土壤湿度和温度增加两个告警,输入告警的名称。



▪  选择需要监控的 property,我们选择 Max Val 作为  property,告警触发值为 SoilHumiNormal 的值,这个值在 Attribute 中已经定义好了。You can also define the severity of this alarm,您也可以定义告警的 Severity。当土壤湿度大于15%时,告警会在您后续配置的 Dashboard 中触发并显示。



▪  重复第2步和第3步创建另外一个告警。我们仍然使用 Max Val 作为 property,但使用 SoilTempNormal 作为 threshold。



到目前为止,我们已经通过工业边缘设备 (IED) 中的云连接器成功地将数据从传感器加载到 Sitewise。接下来,我们将制作一个仪表板来显示资产属性和指标。最终的示例仪表板将是这样的。



▪  切换到 Sitewise 服务并点击 Portals。



▪  点击 Assign users 添加 Portal administrator。



▪  选择您自己的 IAM 用户并点击 Assign administrators,添加后就可以通过 URL 登录到 URL。



▪  在使用管理员用户权限登录到 Portal 后,您可以看到所有之前在 Sitewise 控制台中配置完成的模型和资产。



▪  接下来我们配置一个 Dashboard,切换到 Project 之后打开已经创建好的 Project 并点击 Create dashboard。



▪  您现在可以拖拽之前定义好的 properties 和 alarms。您可以定制您的 Visualization 甚至是可以为特定的 property 增加 Trend lines。





▪  关于如何配置 Sitewise Monitor 的更多细节,请访问 Link。

Link:

https://docs.amazonaws.cn/en_us/iot-sitewise/latest/appguide/what-is-monitor-app.html

Kinesis/S3

▪  切换到 Kinesis Firehose 控制台并找到已经创建好的 delivery stream。



▪  检查 monitoring 确认是否有数据写入到 Kinesis,您会看到类似如下的图形。



▪  最终,您会在 S3 桶中看到对象文件的生成。由于我们在 Buffer interval 中定义了默认5分钟,大约每5分钟会生成一个文件到 S3。



2

Glue/Athena

在本节中,我们将使用 Glue 和 Athena 处理数据湖(S3)中每日生成的数据。我们将使用 Glue Crawler 生成数据模式并将数据自动导入 Glue 数据库。然后我们可以使用 Athena 来查询和检查数据。将在 Glue 中创建数据 ETL 作业,以将数据格式从 CSV 转换为 Parquet。然后将创建另一个 Crawler 作业以基于 Parquet 文件生成新表。之后,我们可以使用 Athena 查询 Parquet 格式的数据,并与 CSV 格式的性能进行比较。最后,我们将使用 Glue Workflow 将两个爬虫作业和一个 ETL 作业编排在一起,并每日自动触发工作流。我们已经通过 CloudFormation 创建了两个 Crawler 作业,您只需要配置其它的部分。

使用 Glue 管理 Metadata

▪  切换到 Glue console 并选择 Crawler,点击 Run crawler  运行名字前缀为 SmartFarmDataCrawler 的 crawler。



▪  作业运行完毕后,您可以查看运行的结果。正常情况下,您可以看到有 Tables added 或者 Tables updated 的记录。



使用 Athena 查询数据

▪  找到刚刚创建成功的 table 并点击 View data。



▪  您会被重定向到 Athena 控制台,Athena 会自动生成一个 SQL 查询语句。请注意右上角 Workgroupd 中的配置不能为空。



▪  接下来我们可以调整 SQL 语句,删除  ‘limit 10’。查询运行成功后,记录 Run time 和 Data scanned。



使用 Glue 将数据格式从 CSV 转换成 Parquet

▪  切换回 Glue 控制台并选择 Jobs。



▪  点击 Add job,输入名称并选择有足够访问 S3 权限的 IAM 角色。我们已经创建好了一个 IAM 角色,名字的前缀为 prefix SiemensSmartFarm。我们选择使用 Spark 2.4.为 engine type。



▪  Glue 将帮助生成脚本,设置如下。请注意,您必须启用 Job bookmark,然后每次 ETL 作业将只处理 Glue 表中的每日增量数据,而不是所有数据。



▪  选择您刚刚创建好的 table 作为 Data source。



▪  我们需要创建一个新的 dataset,因此选择 Change schema。



▪  选择 S3 作为 Data store,Format 是 Parquet,选择名称前缀为 “siemensesmartfarm-siemensindustryedgedemo” 的 S3 bucket 作为 Target path。请记住在选择 S3 存储桶后添加 “/rawdataparquet”。



▪  确认 schema 但无需更改任何内容。



▪  点击 Save job 并选择 edit script,您将被重定向到生成的代码,您可以修改代码以支持更复杂的逻辑。但是对于这个演示,无需更改任何内容,只需关闭页面即可。



▪  至此一个 ELT 作业配置完成,您可以点击 Run job 执行该作业。



▪  作业运行成功后,您可以看到相应的记录并在 S3 中找到对应的文件。





配置第二个 Crawler 用于爬取 Parquet 文件

▪  找到另一个名称前缀为“smartFarmDataCrawlerParquet” 的 crawler 并运行该爬虫。



▪  job 执行后,会在同一个数据库下生成一张新表。



使用 Athena 查询新的 Table 中的数据

▪  找到 table 并点击 View data。



▪  运行 SQL 查询。如果比较 CSV 格式的结果(运行时间=3.553s,扫描数据:3MB),性能从时间和数据大小都得到了优化。



使用 Glue Workflows 编排多个步骤

▪  切换到 Workflows 并点击 Add Workflow。



▪  给它一个名字并将 Max concurrency 设置为1,因为该 Workflow 每天只执行一次。



▪  选择 Add Trigger 开始定义流程。



▪  新增一个 Trigger,输入名称并选择 Schedule 作为 Trigger type。



▪  将频率设置为 Daily,开始时间我们配置为00:02,以便处理昨天生成的所有数据,然后单击 Add。



▪  点击 Add node,然后选择第一个用于处理原始数据(CSV)的爬虫。



▪  点击 crawler 图标并增加下一个 Trigger。



▪  Trigger 的 type 选择 Event,点击 Add。



▪  点击 Add node 添加一个 ETL 作业,该作业将数据格式从 CSV 转换成 Parquet。



▪  点击这个 ETL 作业的图标增加下一个 Trigger。



▪  点击 Add Trigger 增加下一个 Trigger,属于一个名称并选择 Event 类型。



▪  点击 Add node 添加我们之前创建的第二个爬虫作业。



▪  最后,我们在 Workflow 中配置了完整的流程,工作流将每天自动触发。



3

Sagemaker

在温室作物的种植中,大多数人关注温室内气温湿度和土壤温湿度的变化,却往往忽略了温室内 CO2 浓度对作物生长的影响。能量转换过程-光合作用,因此科学测量温室内 CO2 浓度,通过温室通风、CO2 基肥的使用等方式合理调节 CO2 浓度,有利于农业增产增效。

在本节中,我们将使用 Sagemaker 训练一个模型,该模型可以根据传感器的历史数据预测未来10分钟内的 CO2 浓度变化。模型文件将存储在 S3 存储桶中,您可以下载该文件并将其加载到托管在您的 Industry Edge 中的应用程序中以进行本地预测和监控。一旦 CO2 浓度变化趋势异常,用户可提前报警并执行相应动作。

我们已经通过 CloudFormation 在 Sagemaker 中生成了两个 Jupyter Notebook 文件。您只需要打开它们并逐步执行代码。然后你可以检查预测。通过以下步骤开始使用 Sagemaker。

▪  打开 Sagemaker 控制台并选择 Notebook instances。



▪  单击 Open Jupyter,您将找到两个以 “.ipynb” 结尾的笔记本。您将使用 ipynb 分析和准备数据,然后使用 2_time_series_forecast-gluonts.ipynb 构建模型并检查预测。



▪  打开 0_data_prepare.ipynb notebook,按照步骤执行代码。请注意,您需要等到2-3天才能收集足够的数据用于训练和测试。



修改 S3 桶名称:

训练任务定义:

•您可以根据数据的时间范围对训练/测试/预测数据集进行分段。

•您可以定义预测频率,默认为1分钟。

•您可以定义预测长度,默认为10分钟。

•您可以选择预测目标,我们在这个演示中使用  CO2 (id=105) 为例训练预测模型。



•打开2_time_series_forecast-gluonts.ipynb。

模型文件输出定义:



选择 DeepAR 或 NPTS 作为预测器:



在演示中,我们同时使用了 Sagemaker 内置算法 DeepAR  和 GluonTS 的 NPTS,并比较了预测结果。用于模型训练的源数据位于 S3 存储桶中,但是您需要等待2-3天才能收集到足够的数据用于模型训练。我们使用前1天的数据来预测当前代码中未来10分钟的趋势,您可以修改时间窗口。从下图中您可以发现两种算法都可以正确预测趋势(蓝线是真实数据/红线是预测)。

DeepAR:

https://docs.amazonaws.cn/en_us/sagemaker/latest/dg/deepar.html

GluonTS:

https://github.com/awslabs/gluon-ts



总 结

基于亚马逊云科技和西门子工业边缘的云边协同方案是一个云和边缘协同的集成解决方案,客户可以从 Siemens Industry Edge 和亚马逊云科技服务中获益。客户可以在本地继续处理需要更低延迟和强制性数据本地化合规要求的数据或业务逻辑,同时利用丰富的云服务,包括 Amazon IoT、Data Lake、Data Analytics、AI/ML 和 CICD 等,通过托管服务提供扩展的计算和存储资源。围绕这个方案,西门子和 Amazon 也会持续扩大云边生态,同时我们希望邀请越来越多的合作伙伴加入并共同完善这个生态。


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?注册哦

x
您需要登录后才可以回帖 登录 | 注册哦

本版积分规则