feat: major add content to introductions and literature review
This commit is contained in:
@@ -33,12 +33,12 @@ Dalam penelitian ini, optimasi \textit{hyperparameter} dilakukan melalui pencari
|
||||
|
||||
Reduksi dimensi ditambahkan sebagai parameter ketiga dalam pencarian \textit{grid} untuk menentukan jumlah komponen utama \gls{pca} guna mengoptimasi waktu komputasi, performa \textit{inference}, kompleksitas model, dan ukuran model \parencite{geron2019}. Nilai-nilai komponen yang diuji adalah $n_{components} \in \{512, 256, 128, 64, 32, 16, 8, 4, 2\}$. Rentang nilai tetap ini dipilih dibandingkan rentang \textit{fractional threshold} $(0 < x < 1)$ variansi kumulatif untuk memastikan konsistensi, meningkatkan reprodusibilitas, dan memudahkan interpretasi jumlah komponen utama yang dipilih di setiap iterasi pencarian \textit{grid}.
|
||||
|
||||
Kemudian, \textit{cross-validation} dengan skema \textit{stratified k-fold} digunakan untuk menilai kinerja model pada setiap kombinasi \textit{hyperparameter}. Skema ini memastikan bahwa setiap lipatan memiliki proporsi kelas yang seimbang, sehingga mengurangi bias dalam penilaian model \parencite{Kohavi1995ASO}. Nilai $k$ yang digunakan pada penelitian ini adalah 5 yang berarti data pelatihan dibagi menjadi 5 bagian: 4 bagian digunakan untuk pelatihan dan 1 bagian untuk validasi secara bergantian. Proses ini diulang untuk seluruh kombinasi \textit{hyperparameter} yang berjumlah 324 kombinasi, sehingga total pelatihan model yang dilakukan adalah 675 kali.
|
||||
Kemudian, \textit{cross-validation} dengan skema \textit{stratified k-fold} digunakan untuk menilai kinerja model pada setiap kombinasi \textit{hyperparameter}. Skema ini memastikan bahwa setiap lipatan memiliki proporsi kelas yang seimbang, sehingga mengurangi bias dalam penilaian model \parencite{Kohavi1995ASO}. Nilai $k$ yang digunakan pada penelitian ini adalah 5 yang berarti data pelatihan dibagi menjadi 5 bagian: 4 bagian digunakan untuk pelatihan dan 1 bagian untuk validasi secara bergantian. Proses ini diulang untuk seluruh kombinasi \textit{hyperparameter} yang berjumlah 200 kombinasi pada tahap \textit{coarse grid-search}, sehingga total pelatihan model yang dilakukan adalah 1000 kali.
|
||||
% table showing the grid search parameters
|
||||
Tabel \ref{tab:grid_search_parameters} merangkum parameter-parameter yang digunakan dalam pencarian \textit{grid}.
|
||||
Tabel \ref{tab:grid_search_parameters} merangkum parameter-parameter yang digunakan dalam pencarian \textit{grid} tahap pertama (\textit{coarse grid-search}).
|
||||
\begin{table}[H]
|
||||
\centering
|
||||
\caption{Parameter-parameter dalam pencarian \textit{grid} untuk optimasi \textit{hyperparameter} model \gls{svm}.}
|
||||
\caption{Parameter-parameter dalam pencarian \textit{grid} tahap pertama (\textit{coarse grid-search}) untuk optimasi \textit{hyperparameter} model \gls{svm}.}
|
||||
\label{tab:grid_search_parameters}
|
||||
\begin{tabular}{lll}
|
||||
\toprule
|
||||
@@ -47,16 +47,83 @@ Tabel \ref{tab:grid_search_parameters} merangkum parameter-parameter yang diguna
|
||||
% kernel
|
||||
kernel & \gls{rbf} & 1 \\
|
||||
% regularization parameter
|
||||
$C$ & $\left\{ 2^{\,x} \,\middle|\, x \in \{-5, 0, \dots, 15\} \right\}$ & 5 \\
|
||||
$\gamma$ & $\left\{ 2^{\,x} \,\middle|\, x \in \{-15, -10, \dots, 5\} \right\}$ & 5 \\
|
||||
$n_{components}$ & $\{512, 256, 128, 64, 32, 16, 8, 4, 2\}$ & 9 \\
|
||||
$C$ & $\left\{ 2^{\,x} \,\middle|\, x \in \{-5, 0, 5, 10, 15\} \right\}$ & 5 \\
|
||||
$\gamma$ & $\left\{ 2^{\,x} \,\middle|\, x \in \{-15, -10, -5, 0, 5\} \right\}$ & 5 \\
|
||||
$n_{components}$ & $\{512, 256, 128, 64, 32, 16, 8, 4\}$ & 8 \\
|
||||
\midrule
|
||||
Total Kombinasi & & 135 \\
|
||||
Total Kombinasi & & 200 \\
|
||||
\bottomrule
|
||||
\end{tabular}
|
||||
\end{table}
|
||||
|
||||
\section{Evaluasi Model}
|
||||
% \section{Strategi Pembagian Data}
|
||||
% Dataset yang telah diekstraksi fitur dan diberi label kemudian dibagi menjadi dua bagian untuk menilai kemampuan generalisasi model:
|
||||
% \begin{enumerate}
|
||||
% \item \textbf{Dataset A}: Digunakan untuk pelatihan model dan validasi silang selama optimasi \textit{hyperparameter}
|
||||
% \item \textbf{Dataset B}: Disimpan sebagai data uji independen untuk evaluasi akhir model yang telah dioptimalkan
|
||||
% \end{enumerate}
|
||||
|
||||
% Pembagian ini dilakukan secara \textit{stratified} untuk memastikan proporsi setiap kelas kerusakan ($d_0$ hingga $d_6$) terjaga pada kedua dataset. Pendekatan ini memungkinkan evaluasi yang lebih objektif terhadap kemampuan model dalam mengklasifikasikan kondisi struktur yang belum pernah dilihat sebelumnya.
|
||||
|
||||
\section{Strategi Optimasi \textit{Hyperparameter} Dua Tahap}
|
||||
Untuk meningkatkan efisiensi pencarian parameter optimal, optimasi dilakukan dalam dua tahap:
|
||||
|
||||
\subsection{\textit{Coarse Grid-Search}}
|
||||
Tahap pertama menggunakan rentang parameter yang luas dengan interval yang lebih besar untuk mengidentifikasi wilayah parameter yang menjanjikan. Parameter yang dioptimalkan telah dijelaskan pada Tabel~\ref{tab:grid_search_parameters}.
|
||||
|
||||
\subsection{\textit{Fine Grid-Search}}
|
||||
Berdasarkan hasil \textit{coarse grid-search}, dilakukan pencarian lebih detail di sekitar parameter terbaik dengan interval yang lebih kecil. Rentang parameter pada tahap ini disesuaikan dengan:
|
||||
\begin{itemize}
|
||||
\item Nilai $C$ dan $\gamma$ terbaik dari tahap pertama menjadi pusat pencarian
|
||||
\item Interval dikurangi menjadi 0.5 dalam skala logaritma basis 2
|
||||
\item Jumlah komponen PCA tetap menggunakan nilai optimal dari tahap pertama
|
||||
\end{itemize}
|
||||
|
||||
\section{Metrik Evaluasi}
|
||||
\subsection{Metrik Klasifikasi Standar}
|
||||
Kinerja model dievaluasi menggunakan beberapa metrik standar:
|
||||
\begin{enumerate}
|
||||
\item \textbf{Akurasi}: Proporsi prediksi yang benar dari total prediksi
|
||||
\item \textbf{Precision}: Proporsi prediksi positif yang benar untuk setiap kelas
|
||||
\item \textbf{Recall}: Proporsi sampel positif yang berhasil diidentifikasi untuk setiap kelas
|
||||
\item \textbf{F1-score}: Rata-rata harmonik antara precision dan recall
|
||||
\item \textbf{Confusion Matrix}: Matriks yang menunjukkan distribusi prediksi vs label sebenarnya
|
||||
\end{enumerate}
|
||||
|
||||
\subsection{Metrik Efisiensi}
|
||||
Untuk menilai trade-off antara akurasi dan kompleksitas komputasi, didefinisikan metrik efisiensi:
|
||||
\begin{equation}
|
||||
E_i = \frac{S_i}{T_i^{\alpha}},
|
||||
\end{equation}
|
||||
dengan:
|
||||
\begin{itemize}
|
||||
\item $S_i$ = rata-rata skor akurasi hasil 5-\textit{fold cross-validation} (0–1)
|
||||
\item $T_i$ = rata-rata waktu pelatihan per iterasi (dalam detik)
|
||||
\item $\alpha$ = eksponen pembobot waktu (ditetapkan = 1)
|
||||
\end{itemize}
|
||||
|
||||
Metrik ini memungkinkan identifikasi konfigurasi model yang memberikan keseimbangan optimal antara performa dan efisiensi komputasi.
|
||||
|
||||
\section{Pemilihan Model \textit{Baseline}}
|
||||
Dari hasil \textit{coarse grid-search}, dipilih konfigurasi model \textit{baseline} berdasarkan kriteria gabungan:
|
||||
\begin{enumerate}
|
||||
\item Akurasi validasi silang yang tinggi
|
||||
\item Metrik efisiensi ($E_i$) yang optimal
|
||||
\item Waktu pelatihan yang reasonable untuk implementasi praktis
|
||||
\end{enumerate}
|
||||
|
||||
Model \textit{baseline} ini kemudian dievaluasi pada data uji independen untuk mengukur performa awal sebelum optimasi lanjutan melalui \textit{fine grid-search}.
|
||||
|
||||
\section{Proses \textit{Inference} dan Visualisasi}
|
||||
Setelah model dilatih dan dioptimalkan, dilakukan proses \textit{inference} pada data uji untuk:
|
||||
\begin{enumerate}
|
||||
\item Menghasilkan prediksi probabilitas untuk setiap kelas kerusakan
|
||||
\item Memvisualisasikan distribusi probabilitas dalam bentuk \textit{heatmap} struktur
|
||||
\item Menganalisis pola kesalahan klasifikasi melalui \textit{confusion matrix}
|
||||
\item Menilai kemampuan deteksi kerusakan pada lokasi spesifik
|
||||
\end{enumerate}
|
||||
|
||||
Visualisasi \textit{heatmap} dilakukan dengan memetakan probabilitas prediksi kembali ke struktur grid asli, sehingga memberikan interpretasi spasial terhadap hasil klasifikasi.
|
||||
|
||||
|
||||
|
||||
|
||||
Reference in New Issue
Block a user