主页 > 手机  > 

机器学习:k近邻

机器学习:k近邻

所有代码和文档均在golitter/Decoding-ML-Top10: 使用 Python 优雅地实现机器学习十大经典算法。 (github ),欢迎查看。

K 邻近算法(K-Nearest Neighbors,简称 KNN)是一种经典的机器学习算法,主要用于分类和回归任务。它的核心思想是:给定一个新的数据点,通过查找训练数据中最接近的 K 个邻居,并根据这些邻居的标签来预测新数据点的标签。

KNN 是一种 基于实例的学习(Instance-based learning)算法。在训练阶段,它并不构建显式的模型,而是将训练数据存储起来,在预测阶段计算待预测点与训练集中所有点的距离,然后选择 K 个最近的邻居,根据邻居的标签进行投票或平均来做出预测。

KNN 的优点在于其简单易懂、无需训练过程,并且适用于大多数任务。它能够处理复杂的非线性问题,不依赖数据分布假设,能够很好地适应复杂的决策边界。

然而,KNN 的缺点也很明显。它的计算开销大,因为每次预测都需要计算所有训练数据的距离,导致在大数据集上表现不佳。此外,KNN 需要存储所有训练数据,占用较大的内存空间,并且对异常值敏感,可能会影响预测结果的准确性。

KNN算法步骤:

选择 K 个邻居的数量,K 值通常是一个奇数,以避免平票的情况。计算待预测数据点与训练数据集中每个点的距离。根据计算出的距离选择 K 个最接近的点。对于分类任务,返回 K 个邻居中最多的类别;对于回归任务,返回 K 个邻居标签的均值。 代码实现

数据处理:使用iris.data数据集,用PCA进行降维。

import numpy as np import pandas as pd def pca(X: np.array, n_components: int) -> np.array: """ PCA 进行降维。 """ # 1. 数据标准化(去均值) X_mean = np.mean(X, axis=0) X_centered = X - X_mean # 2. 计算协方差矩阵 covariance_matrix = np.cov(X_centered, rowvar=False) # 3. 计算特征值和特征向量 eigenvalues, eigenvectors = np.linalg.eig(covariance_matrix) # 4. 按特征值降序排序 sorted_indices = np.argsort(eigenvalues)[::-1] top_eigenvectors = eigenvectors[:, sorted_indices[:n_components]] # 5. 投影到新空间 X_pca = np.dot(X_centered, top_eigenvectors) return X_pca def get_data(): data = pd.read_csv('iris.csv', header=None) # print(data.dtypes) unq = data.iloc[:, -1].unique() for i, u in enumerate(unq): data.iloc[:, -1] = data.iloc[:, -1].apply(lambda x: i if x == u else x) # print(data.sample(5)) xuanze = np.random.choice([True, False], len(data), replace=True, p=[0.8, 0.2]) train_data = data[xuanze] test_data = data[~xuanze] train_data = np.array( train_data, dtype=np.float32, ) test_data = np.array(test_data, dtype=np.float32) # 归一化 train_data[:, :-1] = (train_data[:, :-1] - train_data[:, :-1].mean(axis=0)) / train_data[:, :-1].std(axis=0) test_data[:, :-1] = (test_data[:, :-1] - test_data[:, :-1].mean(axis=0)) / test_data[:, :-1].std(axis=0) return ( pca(train_data[:, :-1], 2), train_data[:, -1].astype(np.int32), pca(test_data[:, :-1], 2), test_data[:, -1].astype(np.int32), ) if __name__ == '__main__': x_train, y_train, x_test, y_test = get_data() print(y_train.dtype) print(x_test, y_test) print(x_train.shape, y_train.shape)

knn过程:

from data_processing import get_data import numpy as np import matplotlib.pyplot as plt def euclidean_distance(x_train: np.array, x_test: np.array) -> np.array: """ 计算欧拉距离 """ return np.sqrt(np.sum((x_train - x_test) ** 2, axis=1)) def knn(k: int, x_train: np.array, y_train: np.array, x_test: np.array) -> np.array: """ k近邻算法 """ predictions = [] for test in x_test: distances = euclidean_distance(x_train, test) nearest_indices = np.argsort(distances)[:k] # 返回最近的k个点的索引 nearest_labels = y_train[nearest_indices] # 返回最近的k个点的标签 prediction = np.argmax(np.bincount(nearest_labels)) # 返回最近的k个点中出现次数最多的标签 predictions.append(prediction) return np.array(predictions) def accuracy(predictions: np.array, y_test: np.array) -> float: """ 计算准确率 """ return np.sum(predictions == y_test) / len(y_test) if __name__ == '__main__': k = 5 x_train, y_train, x_test, y_test = get_data() predictions = knn(k, x_train, y_train, x_test) acc = accuracy(predictions, y_test) print(f'准确率为: {acc * 100:.2f}') # 绘制训练数据 plt.scatter(x_train[:, 0], x_train[:, 1], c=y_train, cmap='viridis', marker='o', label='Train Data', alpha=0.7) # 绘制测试数据 plt.scatter(x_test[:, 0], x_test[:, 1], c=y_test, cmap='coolwarm', marker='x', label='Test Data', alpha=0.7) # 绘制预测结果 plt.scatter( x_test[:, 0], x_test[:, 1], c=predictions, cmap='coolwarm', marker='.', edgecolor='black', alpha=0.7, label='Predictions', ) # 添加标题和标签 plt.title('KNN Classification Results') plt.xlabel('Feature 1') plt.ylabel('Feature 2') plt.legend() # 显示图形 plt.show()

标签:

机器学习:k近邻由讯客互联手机栏目发布,感谢您对讯客互联的认可,以及对我们原创作品以及文章的青睐,非常欢迎各位朋友分享到个人网站或者朋友圈,但转载请说明文章出处“机器学习:k近邻