The classic genetic algorithm has been successfully applied to many optimization problems. However, its usefulness is limited when it comes to feature selection, particularly if a high reduction rate is expected. The algorithm, in its classic version, returns feature sets containing approximately 50% of the total number of features. In order to decrease this rate, a penalty term penalizing individuals of too many features is often added to the fitness function. This solution seems to be reasonable but, as will be shown in this paper, provides only a slight improvement in the reduction rate. In order to obtain a satisfactory classification accuracy and a high reduction rate, not only the fitness function but also other algorithm elements must be reconsidered. Streszczenie. Klasyczny algorytm genetyczny był z powodzeniem stosowany w wielu problemach optymalizacyjnych, jednakże jego użyteczność jest ograniczona w problemach selekcji cech, zwłaszcza jeżeli wymagana jest wysoka stopa redukcji cech. Algorytm, w jego klasycznej wersji, zwraca zbiory cech zawierające około 50% pierwotnej liczby cech. W celu zmniejszenia tej liczby, do funkcji przystosowania algorytmu dołącza się często człon kary, karzący osobniki kodujące zbiory o zbyt dużej liczbie cech. Takie rozwiązanie wydaje się być rozsądne, ale, jak zostanie to przedstawione w artykule pozwala jedynie na niewielką poprawę stopy redukcji. Stąd, w celu uzyskania satysfakcjonującej dokładności klasyfikacji i wysokiej stopy redukcji, nie tylko funkcja przystosowania, ale również inne elementy algorytmu muszą zostać wzięte pod uwagę (Klasyczny algorytm genetyczny, a algorytm z agresywną mutacją w procesie selekcji cech na potrzeby interfejsu mózg-komputer).