当前位置:首页 > 天道酬勤 > 正文内容

变压器相位是什么意思(变压器局部放电大小)

张世龙2021年12月20日 12:03天道酬勤640

1引言

随着智能电网建设的推进,智能电力一次设备和常规电力设备的在线监测得到了很大的发展和趋势,监测数据越来越庞大,电力设备的在线监测系统在数据的存储和处理方面面临着很大的技术难题。

局部放电是高压设备的重要监测内容。 局部放电相位分析方法目前已经成熟,应用广泛的宏观特征提取方法。 随着传感器技术的进步,局部放电的检测方法趋于多样化,局部放电信号频率高,且频带宽,因此信号采样率高,要求达到KHz乃至MHz (每秒百万次采样),并且需要监视的设备很多,因此需要监视以往基于单体的存储和相位分析难以满足当前海量数据的计算需求,迫切需要大数据处理技术的支持。

笔者在前期的研究中,使用实验室自建的Hadoop平台,遇到的问题主要有:1)受资金限制,集群规模小,存储和计算资源有限。 2 )集群难以维护3 )服务只能在公司内部网络上使用4 )前期硬件采购的资金投入高,设备利用率低。 5 )并行程序框架限制: Hadoop的MapReduce在每个回合后必须将数据保存到分布式文件系统或HBase中,下一个Map任务执行了冗余的IO操作,导致性能下降。

公共云计算平台通过按需租赁,将用户从硬件采购、网络构建、平台构建、系统硬件和软件维护中解放出来,成为存储资源。 笔者尝试利用AlibabaCloud (阿里巴巴云) MaxCompute存储变压器的局部配置数据,加速相位分析过程。 实验结果表明,该方法与Hadoop MapReduce相比计算效率明显提高,在数据可靠性、服务可用性、成本方面有明显优势。

2局部放电数据的MaxCompute表存储

局部放电相位分析是将在多个工频周期中监测而得到的局部放电参数(放电次数n、根据放电量q或放电振幅,以及有放电的相位)换算成一个工频周期内,计算其统计规律性,取得放电光谱,统计放电特性,图案

MaxCompute以表(Table )为基本单位存储数据,与Hadoop的文件系统) HDFS )在以文件为单位存储数据方面有很大不同。 表的模式不能直接应用HDFS文件的格式,必须重新设计存储模式。 本地放电信号样本数据(二进制dat文件)在上载到MaxCompute之前转换为文本文件格式).csv文件),并使用Tunnel工具将本地数据上载到MaxCompute表

使用HDFS文件存储,可以在一行中存储一个工频周期的采样数据(本文档中包括80万个采样点),然后在执行MapReduce分析任务时,将一行数据用作Map函数的输入但是,MaxCompute表中的列数和表单元格的数据类型有限,列数不能超过1024列。 由于表单元格当前只支持6种数据类型(Bigint、Double、String、Boolean、Datetime和Decimal ),因此每行不能存储80万个样本本文如图1所示,设计了用于存储原始采样数据的表MPD。 MPD采用2级分区,1级分区名称为设备ID,表示设备ID。 2级分区是收集时间。

图1 MPD表的结构

Maxcompute支持分区。 这里以分区密钥为检索条件,可以大幅减少数据检索范围,快速找到所需的数据,有效提高访问性能,降低成本。

在局部放电数据的分析过程中,需要生成中间结果数据,因此设计了基本参数NQF表和放电光谱PT表,表模式如下。

表1 NQF表

在SampleIDTimePhaseMax样本ID时相峰值(统计获得)中,SampleID表示用于完成一次特征计算的频谱数据的编号。

表2 PT表

如表3所示,样品id窗号放电总量平均放电量放电次数峰值相位分析的结果最终是放电波形数据的统计特征,即正负半周期的频谱时滞度Sk、陡峭度Ku、局部峰值点数

表3统计特征表

sampleidsknskqkunkuqpenpeqcqfmcc这一特征的含义在这里不多做说明,请参考相关文献。

使用MR2完成放电数据的相位分析

MR2是MaxCompute的扩展MapReduce模型,无需在中间插入Map操作,即可在Reduce后面直接执行下一个Reduce操作。 这样可以有效地减少磁盘I/o。 可以在Map之后连接任意数量的Reduce操作,如Map-Reduce-Reduce…。

相位分析过程需要串联完成多个MapReduce任务,如图2所示。

图2相位分析MapReduce任务关系

格式转换是用于将样本数据上载到ODPS表的数据预处理,主要任务是将二进制样本数据转换为Tunnel可用的文本格式。

子任务1用于提取基本统计参数n-q-,需要扫描MPD表

指定分区,找到放电过程,并记录放电相位和幅值。Mapper函数对逐条输入的采样数据,根据预先设定的纵向阈值进行数据筛选,并将大于阈值的采样点输出至Combiner。Combiner是本地(与Mapper在相同的节点)执行的汇总,对Mapper的输出结果集合,寻找峰值点,并输出至Reducer进行汇总。Combiner有效的分担了Reducer的数据汇总工作,并且减少了Reducer所在节点传输的数据量,可以有效提升并行计算过程的速度。Reducer函数负责汇总由Combiner输出来的极值点,并使用预先设定的横向阈值进行极值点的筛选。如果两个极值点距离“很近”(相位差小于横向阈值),则认为是同一次放电。输出的结果存储于NQF表。

子任务2接收NQF表的数据作为输入,计算放电谱图和统计特征。为了加快计算速度,设计了Map-Reduce1-Reduce2模式的计算过程,使谱图数据作为中间结果缓存在Maxcompute分布式内存中,节约了磁盘读取的开销。Reduce1和Reduce2的连接使用了Maxcompute提供的Pipeline完成。子任务2最终的输出是统计特征表,可以用于后续的模式识别任务,模式识别可以写程序完成,或者使用阿里云机器学习平台去完成。

4 实验分析

在实验室完成了电晕放电、悬浮放电、气泡放电和油中放电实验。局部放电信号采集仪器采用TWPD-2F局部放电综合分析仪,最大采样频率为40MHz,采集信号的有效频带为40k~300kHz。

为验证所设计的分析算法性能和稳定性,选取了不同大小的数据集,如表4所示。数据集1x表示1倍数据,包含50个文件(50条局放数据),本文中选用50条局放数据进行1次统计特征的提取。

表4 实验用数据集

数据集ID记录数(dat文件数)(条)dat(GB)csv(GB)MaxComputeTable(GB)Table记录数(万条)压缩比1x500.3050.8980.20340004.4212x1000.611.750.42580004.1184x2001.223.50.852160004.1088x4002.4471.523320004.59616x8004.88143.447640004.06132x16009.76286.3941280004.37964x320019.525612.6882560004.414128x640039.0411225.9725120004.312256x1280078.0822451.95210240004.427

分别在单机环境下、实验室自建的Hadoop平台(6个计算节点)下和Maxcompute平台下完成放电数据的相位分析,(分别命名为S-PRPD、Hadoop-PRPD、ODPS-PRPD),测量算法执行的时间、使用的硬件资源(CPU、内存)进行性能对比,如图3、图4、图5所示。

图3 相位分析执行任务执行时间

在图3中,S-PRPD算法在单机环境下运行,执行时间随数据量增加急剧增长。只完成了4X数据集的分析任务(更大数据量耗时太长)。Hadoop-PRPD算法在自建Hadoop平台下执行。受存储容量和计算性能影响,实验只完成了16x数据集的分析任务,算法执行时间缓慢增长。ODPS-PRPD算法运行在Maxcompute平台下,完成了256X数据集的分析(还可以更大),运行时间平稳,在数据规模成倍增长情况下,整体运行时间增长很少或不增长,甚至,在分析8X数据集时出现负增长。主要归因于ODPS硬件的弹性伸缩,如图4和图5所示。

图4 CPU核心数的消耗

图5 内存消耗

从图3和图4中可以看出,随着数据规模的增长,ODPS-PRPD使用的硬件资源总体呈现线性增长的趋势。数据规模越大,为其分配的硬件资源越多,但也不是严格的线性关系。Maxcompute为并行任务分配的硬件资源有一个复杂的算法实现,目前阿里云尚未公开,使用者暂不能控制资源的分配。虽然底层细节对用户透明,但是这种弹性伸缩的性质还是能够强有力的为大数据分析助力。当数据规模达到51GB(256x)时,使用的CPU核心数达到了1093,内存达到了1639GB。这种硬件条件是目前很多数自建数据处理平台难以达到的。

最后来说一下成本费用。Maxcompute采用租用的方式,无需自行购买硬件设备和软件,相对自建Hadoop或者其他大数据分析平台,前期投入成本极低。Maxcompute以项目(Project)为单位,对存储、计算和数据下载三个方面分别计费。数据上传目前暂不收取费用。存储价格目前是0.0008元/GB/小时,计算费用是0.3元/GB。计算费用中,目前仅开放了SQL的计费,执行MapReduce暂时是免费。因此,本文实验实际产生的费用只有存储费用,做几天的实验,只花了几元钱。

扫描二维码推送至手机访问。

版权声明:本文由花开半夏のブログ发布,如需转载请注明出处。

本文链接:https://www.zhangshilong.cn/work/25610.html

分享给朋友:

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。