<div dir="ltr"><div class="gmail_default" style="font-family:trebuchet ms,sans-serif">De fato, usar 683 é não usual. Por outro lado, fiquei intrigado e vi que esse é o tamanho da amostra. Então creio que você esteja buscando fazer o LOOCV (leave one out cross validation), só que de uma forma subótima. É melhor que você passe o argumento "LOOCV" para o parâmetro `method`. Dessa forma eu não observei mensagens de erro nem aviso. Mais um detalhe, usar número par de vizinhos é não aconselhável porque gera empates no classificador binário (um vizinho positivo e outro negativo) o que acredito ser desempatado por chance. Então use apenas números ímpares no grid de busca.<br></div><div class="gmail_default"><span style="font-family:monospace"><br></span></div><div class="gmail_default"><span style="font-family:monospace">ctrl <- trainControl(method = "LOOCV")<br>nn_grid <- expand.grid(k = seq(1, by = 2, length.out = 7))<br>best_knn <- train(class ~ .,<br>                  data = biopsyX,<br>                  method = "knn",<br>                  trControl = ctrl,<br>                  preProcess = c("center", "scale"),<br>                  tuneGrid = nn_grid)<br>print(best_knn)<br>plot(best_knn)<br></span></div><div class="gmail_default"><span style="font-family:monospace"><br></span></div><div class="gmail_default"><span style="font-family:monospace">-----------------------------------------------------<br></span></div><div class="gmail_default"><span style="font-family:monospace">k-Nearest Neighbors <br><br>683 samples<br>  9 predictors<br>  2 classes: 'benign', 'malignant' <br><br>Pre-processing: centered (9), scaled (9) <br>Resampling: Leave-One-Out Cross-Validation <br>Summary of sample sizes: 682, 682, 682, 682, 682, 682, ... <br>Resampling results across tuning parameters:<br><br>  k   Accuracy   Kappa    <br>   1  0.9531479  0.8962164<br>   3  0.9619327  0.9163274<br>   5  0.9677892  0.9293366<br>   7  0.9707174  0.9356365<br>   9  0.9677892  0.9292001<br>  11  0.9692533  0.9323530<br>  13  0.9707174  0.9356365<br><br>Accuracy was used to select the optimal model using the largest value.<br>The final value used for the model was k = 13.</span></div><div class="gmail_default" style="font-family:trebuchet ms,sans-serif"><br></div><div class="gmail_default" style="font-family:trebuchet ms,sans-serif">À disposição.</div><div class="gmail_default" style="font-family:trebuchet ms,sans-serif">Walmes.<br></div><br></div>