分类目录归档:运维

K-最近邻算法的缺失值填充方法-KNN


KNN Imputation(K-Nearest Neighbors Imputation)是一种基于K-最近邻算法的缺失值填充方法,广泛应用于数据分析和机器学习中。当数据集中存在缺失值时,KNN imputation可以通过相似的样本来推测缺失值。该方法的基本思路是:利用相似数据点(邻居)填补缺失值,假设相似的样本之间有相似的属性值。

KNN Imputation 的原理

KNN imputation 基于以下几个步骤:

  1. 计算距离
  2. 对于每个包含缺失值的样本,通过计算其他样本之间的相似性(通常使用欧几里得距离、曼哈顿距离或其他距离度量方法)来找到与缺失值样本相似的K个最近邻。

  3. ...

Read more

离群值


离群值(Outlier)是指在数据集中,与大多数其他数据点显著不同的数据点。换句话说,离群值是一个异常值,它与数据的整体趋势和模式偏差较大。离群值可能是由于数据录入错误、数据变异性或真实的稀有事件等原因引起的。

离群值的特点:

  1. 极端值:离群值通常远离数据的平均值或中位数。根据数据的分布,离群值可能远大于或远小于其他数据点。
  2. 不符合模式:离群值通常不符合数据的普遍规律或趋势,是一种异常情况。
  3. 统计意义:离群值往往会超出通过统计方法(例如1.5倍四分位间距法、标准差法等)计算出的某个范围。

离群值的类型:

  1. 全局离群值(点离群值)
  2. 这种离群值指的是数据集中明显偏离其他数据点的个别数据...

Read more

数据分析工具集


在数据分析过程中,使用合适的工具和技术能够提高分析效率和质量。数据分析工具集涵盖了从数据收集、清洗、可视化、分析到报告生成等多个方面。根据不同的需求和业务场景,可以选择不同的工具。以下是常见的数据分析工具集,按功能分类。

1. 数据收集与采集工具

这些工具用于从不同的数据源(如数据库、网页、API等)收集和提取数据。

  • Python(BeautifulSoup, Requests)
  • 用于网页抓取和数据提取,支持从网站和API获取数据。

  • Scrapy

  • 一个强大的网页抓取框架,适合大规模的数据抓取和处理。

  • Apache Nifi

  • 用于数据流管理,可以处理数据的自动化采...

Read more

数据的动态性


数据的动态性指的是数据在某一时间段内的变化和更新特性。随着时间的推移,数据不断发生变化,它们的值、结构或内容可能会发生更新、删除或新增。这种变化使得数据不再是静态的,而是具有一定的时间性和时效性。

数据动态性的几个关键特征:

  1. 数据更新
  2. 数据可能会根据外部事件或内部操作而更新。例如,用户购买商品后,数据库中存储的库存数量和用户的订单记录会发生变化。
  3. 更新可以是增量的(只修改新增或修改的部分),也可以是全量的(所有相关记录都会被重写)。

  4. 数据删除

  5. 随着时间的推移,数据可能会被删除或归档。比如,在客户数据管理系统中,客户长期不活跃可能会导致他们的账户被删除,或在数据清理过程中删...

Read more

数据剖析


Data Profiling(数据剖析)是对数据进行详细分析和总结的过程,目的是理解数据的结构、内容、质量、完整性和模式。数据剖析是数据质量管理的一个重要步骤,通常用于在数据清洗、数据集成、数据迁移或数据分析之前,发现数据中的潜在问题、异常值或不一致性。

数据剖析的关键目标:

  1. 数据质量评估
  2. 通过分析数据,评估数据的准确性、完整性、一致性和有效性,识别数据质量问题(如缺失值、重复值、格式错误等)。

  3. 理解数据结构

  4. 通过剖析数据,理解数据的类型、范围、分布和统计特性,帮助分析人员更好地了解数据的基本特性。

  5. 发现数据异常

  6. 识别数据中的异常值或不符合预期的模式,帮助解决数...

Read more

数据摄取-


Ingest(数据摄取)是指将数据从一个来源系统(如传感器、应用程序、文件、数据库等)提取并导入到另一个存储系统或数据处理平台(如数据库、数据仓库、数据湖等)中的过程。数据摄取是数据处理管道中的一个关键步骤,通常是分析、存储或进一步处理数据的前提。

在现代数据工程和大数据处理中,数据摄取通常包括以下几个关键过程:

1. 数据来源

  • 数据摄取通常涉及从多个数据源(结构化、半结构化或非结构化)获取数据。
  • 结构化数据:如关系型数据库(MySQL、PostgreSQL)、CSV 文件等。
  • 半结构化数据:如 JSON、XML 格式的数据,通常存储在日志文件、NoSQL 数据库(如 MongoDB...

Read more

数据验证


Data Validation (数据验证) 是一种确保数据准确性、完整性和一致性的重要过程。它的主要目的是确保数据在输入、存储和处理过程中符合预定的规则和标准,从而避免错误数据的出现,提高数据质量。

数据验证的关键要素:

  1. 准确性
  2. 数据验证确保数据符合预定的准确标准。例如,用户输入的日期应该符合有效日期格式,邮政编码应符合特定的格式等。

  3. 完整性

  4. 确保数据记录没有缺失关键字段。例如,填写表单时,必填字段应被完整填写,不允许出现空白或不完整的记录。

  5. 一致性

  6. 确保数据在不同系统或不同时间点之间的一致性。例如,某个用户的出生日期应该在所有记录中一致。

  7. 合理性

  8. ...

Read more

数据分析与数据挖掘的区别


Data AnalysisData Mining 是数据科学领域中常见的两个术语,虽然它们有一些重叠,但它们的目标、方法和应用有所不同。以下是两者的关键区别:

1. 定义和目标

  • Data Analysis (数据分析)
  • 定义:数据分析是对已收集的、已整理的数据进行统计处理、汇总、评估和解释,以便从中提取有意义的信息,并用于决策支持。
  • 目标:数据分析的主要目标是理解数据,识别数据中的模式、趋势、关系或潜在问题,帮助解决特定的业务问题。
  • 方法:使用统计学、数学和图形可视化工具分析数据,如描述性统计(均值、标准差等)、假设检验、回归分析等。

  • Data Mining (数据挖掘)...

Read more

数据分析师与数据科学家的区别


Data AnalystData Scientist 是两个在数据领域中常见的角色,它们虽然有重叠的地方,但在职责、技能和工作重点上有所不同。下面是 Data AnalystData Scientist 之间的主要区别:

1. 核心职责

Data Analyst (数据分析师)

  • 数据收集与清洗:数据分析师的主要任务是收集、清洗和准备数据,以确保数据准确性和一致性。
  • 数据分析与报告:数据分析师分析数据以回答特定的业务问题,并生成报告和可视化,以帮助业务部门做出决策。
  • 历史数据分析:数据分析师通常专注于分析历史数据,识别趋势、模式和异常,生成定期报告或仪表盘,帮助公司理解过去发...

Read more

探索性数据分析-EDA优势


Exploratory Data Analysis (EDA)(探索性数据分析)是数据科学和统计学中用于分析数据集的初步步骤。EDA 通过可视化和统计技术,帮助分析人员理解数据的结构、模式、分布和潜在关系,为进一步的建模、假设检验和数据清洗提供基础。

EDA 的主要目标是让分析师对数据有一个全面的理解,识别数据中的异常、趋势、分布和潜在关系。以下是 EDA 的一些主要优点

1. 发现数据的结构和特征

EDA 使分析人员能够从数据中提取出潜在的结构信息,如: - 数据的分布特征(例如正态分布或偏态分布) - 各变量之间的关系(如线性关系、非线性关系、相关性等) - 变量...

Read more