| Kode Mata Kuliah | ET2204 / 3 SKS |
|---|
| Penyelenggara | 181 - Teknik Telekomunikasi / STEI |
|---|
| Kategori | Kuliah |
|---|
| Bahasa Indonesia | English |
|---|
| Nama Mata Kuliah | Pembelajaran Mesin untuk Telekomunikasi | Machine Learning for Telecommunications |
|---|
| Bahan Kajian | - Komunikasi lisan
- Desain Rekayasa
- Simulasi dan pemodelan
- Klasifikasi, regresi,pengurangan dimensi & clustering
| - Verbal communication
- Engineering Design
- Simulation and modeling
- Classification, regression, dimensionality reduction & clustering
|
|---|
| Capaian Pembelajaran Mata Kuliah (CPMK) | - Kemampuan untuk menerapkan hubungan ilmiah dan matematis (prinsip atau hukum) dan masukan yang diperlukan untuk Simulasi dan Pemodelan, Klasifikasi, Regresi, dan Dimension Reduction
- Kemampuan menganalisis masalah / mengidentifikasi peluang untuk menghasilkan pernyataan masalah desain simulasi dan pemodelan untuk Simulasi dan Pemodelan, Klasifikasi, Regresi, dan Dimension Reduction
- Kemampuan mengidentifikasi batasan untuk menghasilkan persyaratan desain pada Simulasi dan Pemodelan, Klasifikasi, Regresi, dan Dimension Reduction
- Kemampuan mengidentifikasi dan merumuskan permasalahan teknik pada Simulasi dan Pemodelan, Klasifikasi, Regresi, dan Dimension Reduction
- Kemampuan menganalisis dan menyelesaikan permasalahan teknik mengani Simulasi dan Pemodelan, Klasifikasi, Regresi, dan Dimension Reduction
| - Ability to apply scientific and mathematical relationships (principles or laws) and inputs required for Simulation and Modeling, Classification, Regression, and Dimension Reduction
- Ability to analyze problems / identify opportunities to produce simulation and modeling design problem statements for Simulation and Modeling, Classification, Regression, and Dimension Reduction
- Ability to identify constraints to produce design requirements in Simulation and Modeling, Classification, Regression, and Dimension Reduction
- Ability to identify and formulate technical problems in Simulation and Modeling, Classification, Regression and Dimension Reduction
- Ability to analyze and solve technical problems dealing with Simulation and Modeling, Classification, Regression and Dimension Reduction
|
|---|
| Metode Pembelajaran | Ceramah
Diskusi kelompok
Pembelajaran berbasis Masalah/Studi Kasus | Lecture
Group discussion
Problem/Case Study based learning |
|---|
| Modalitas Pembelajaran | Luring Sinkron
Daring Asinkron
Bauran | Luring Sinkron
Daring Asinkron
Hybrid |
|---|
| Jenis Nilai | ABCDE |
|---|
| Metode Penilaian | Kuis, UTS, UAS | Quizzes, Mid-Semester Exams, Final Exam |
|---|
| Catatan Tambahan | Silabus kuliah :
Kuliah ini akan membahas pendekatan pembelajaran mesin untuk tugas klasifikasi, regresi, pengurangan dimensi, dan pengelompokan. Materi kuliah meliputi: Pengantar Pembelajaran Mesin; Klasifikasi: k-nearest neighbors, regresi logistik, analisis diskriminan, naive Bayes, support vector machines, pohon keputusan, Meningkatkan pohon keputusan dengan random forests dan boosting; Regresi: Regresi linier, Regresi nonlinier dengan generalized additive model, Mencegah overfitting dengan regresi ridge, LASSO, dan elastic net, Regresi dengan kNN, random forest, dan XGBoost; Pengurangan Dimensi: Memaksimalkan varians dengan analisis komponen utama, Memaksimalkan kesamaan dengan t-SNE dan UMAP, Self-organizing maps dan locally linear embedding; Pengelompokan: Pengelompokan dengan menemukan pusat dengan k-means, Pengelompokan hierarkis, Pengelompokan berdasarkan kepadatan: DBSCAN dan OPTICS, Pengelompokan berdasarkan distribusi dengan mixture modeling. | Course description :
This lecture will discuss machine learning approaches to classification, regression, dimension reduction and clustering tasks. Lecture materials include: Introduction to Machine Learning; Classification: k-nearest neighbors, logistic regression, discriminant analysis, naïve Bayes, support vector machines, decision trees, Improving decision trees with random forests and boosting; Regression: Linear regression, Nonlinear regression with generalized additive model, Preventing overfitting with ridge regression, LASSO, and elastic net, Regression with kNN, random forest, and XGBoost; Dimension Reduction: Maximizing variance with principal component analysis, Maximizing similarity with t-SNE and UMAP, Self-organizing maps and locally linear embedding; Clustering: Clustering by finding centers with k-means, Hierarchical clustering, Clustering based on density: DBSCAN and OPTICS, Clustering based on distributions with mixture modeling. |
|---|