{"nbformat":4,"nbformat_minor":0,"metadata":{"colab":{"name":"Άσκηση 03 GBN LR kNN στο Pima Indians.ipynb","provenance":[],"collapsed_sections":[]},"kernelspec":{"name":"python3","display_name":"Python 3"}},"cells":[{"cell_type":"markdown","metadata":{"id":"yD1gabVouubh"},"source":["# Άσκηση: Σύγκριση των Gausian Naive Bayes, Logistic Regression και kNN στo Pima Indians Diabetes dataset\n","![1889 Photograph shows half-length portrait of two Pima Indians, facing front, wearing bead necklaces.](https://i.pinimg.com/236x/60/05/76/600576905d4ad5bb1a9c3e3387b397ca--pima-indians-native-american-indians.jpg \"1889 Photograph shows half-length portrait of two Pima Indians, facing front, wearing bead necklaces.\")\n","\n","Διαβάστε το [\"pima-indians-diabetes.data.csv\"](https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.data.csv) σε ένα numpy array data και ξεχωρίστε features και labels.\n","\n","Για 40% test set: \n","1. υπολογίστε την πρόβλεψη του Gaussian Naive Bayes με τη μέθοδο predict(). \n","2. υπολογίστε την πρόβλεψη της λογιστικής παλινδρόμισης με τη μέθοδο predict().\n","3. για έναν ταξινομητή kNN, με 3-fold cross validation και με μετρική 'f1_weighted' υπολογίστε το βέλτιστο k στο train set (maximum k=50). \n","4. εκτυπώστε με την \"classification_report\" τα precision, recall, f1, support για τον GNB, τη λογιστική παλινδρόμηση και τον kNN με βέλτιστο k που προέκυψε από το cross validation.\n","\n","Συζήτηση: στο συγκεκριμένο dataset: \n","- ποιος ταξινομητής είναι \"καλύτερος\";\n","- τι μπορούμε να κάνουμε για να βελτιωθεί η απόδοση του κάθε ταξινομητή;"]}]}