feat(latex): add new glossary entries for explained variance ratio, standard scaler, grid search, and stratified k-fold and add efficiency metrics and SVM hyperparameters to notations
@@ -9,12 +9,12 @@ dalam mendeteksi dan mengklasifikasikan lokasi kerusakan struktur \textit{grid}.
% Secara ringkas, kami menampilkan: (i) performa utama pada data uji, (ii) analisis per-kelas dan pola kesalahan, (iii) studi ablation dan sensitivitas mencakup fitur, parameter STFT, serta jumlah/posisi sensor, dan (iv) uji robustness serta implikasi implementasi. Detail metodologi eksperimen telah diuraikan pada Bab Metodologi; bagian ini berfokus pada temuan empiris dan interpretasinya.
\section{Hasil Ekstraksi Fitur STFT}
Bagian ini menyajikan contoh hasil transformasi STFT yang diterapkan
Bagian ini menyajikan contoh hasil transformasi \gls{stft} yang diterapkan
pada sinyal percepatan dari sensor atas dan bawah.
Analisis dilakukan untuk memastikan konsistensi pola spektral
dan kesetaraan ukuran data antar kelas sebelum proses pelatihan model.
Gambar~\ref{fig:stft-undamaged} memperlihatkan hasil STFT gabungan (\textit{aggregated}) untuk seluruh titik join tanpa kerusakan (kelas 0).
Gambar~\ref{fig:stft-undamaged} memperlihatkan hasil \gls{stft} gabungan (\textit{aggregated}) untuk seluruh titik join tanpa kerusakan (kelas 0).
\begin{figure}[htbp]
\centering
\begin{minipage}{0.48\textwidth}
@@ -29,21 +29,21 @@ Gambar~\ref{fig:stft-undamaged} memperlihatkan hasil STFT gabungan (\textit{aggr
% \caption{Caption for the second image.}
% \label{fig:image2}
\end{minipage}
\caption{STFT tanpa kerusakan (undamaged). Sensor A (kiri) dan Sensor B (kanan)}
\caption{\gls{stft} tanpa kerusakan (undamaged). Sensor A (kiri) dan Sensor B (kanan)}
\label{fig:stft-undamaged}
\end{figure}
Gambar~\ref{fig:stft-damaged-multiple-a} dan Gambar~\ref{fig:stft-damaged-multiple-b} memperlihatkan hasil STFT gabungan (\textit{aggregated}) untuk seluruh titik join dengan kerusakan (kelas 1--6). Setiap 513 segmen waktu merepresentasikan kolom sensor yang ditinjau.
Gambar~\ref{fig:stft-damaged-multiple-a} dan Gambar~\ref{fig:stft-damaged-multiple-b} memperlihatkan hasil \gls{stft} gabungan (\textit{aggregated}) untuk seluruh titik join dengan kerusakan (kelas 1--6). Setiap 513 segmen waktu merepresentasikan kolom sensor yang ditinjau.
\caption{Visualisasi hasil reduksi bertahap pada $\mathcal{D}_A$ dengan PCA$\rightarrow$t-SNE (baris atas)
dan PCA $\rightarrow$ PaCMAP (baris bawah).}
\caption{Visualisasi hasil reduksi bertahap pada $\mathcal{D}_A$ dengan \gls{pca}$\rightarrow$\gls{tsne} (baris atas) dan \gls{pca}$\rightarrow$\gls{pacmap} (baris bawah).}
\label{fig:pca_tsne_pacmap_A}
\end{figure}
@@ -125,20 +124,20 @@ PCA $\rightarrow$ PaCMAP pada Sensor A dan B
\caption{Visualisasi hasil reduksi bertahap pada $\mathcal{D}_B$ dengan PCA$\rightarrow$t-SNE (baris atas)
dan PCA$\rightarrow$PaCMAP (baris bawah).}
\caption{Visualisasi hasil reduksi bertahap pada $\mathcal{D}_B$ dengan \gls{pca}$\rightarrow$\gls{tsne} (baris atas)
dan \gls{pca}$\rightarrow$\gls{pacmap} (baris bawah).}
\label{fig:pca_tsne_pacmap_B}
\end{figure}
Hasil pada Gambar~\ref{fig:pca_tsne_pacmap_A} dan~\ref{fig:pca_tsne_pacmap_B} menunjukkan bahwa
pengurangan jumlah komponen PCA hingga 8 dimensi
pengurangan jumlah komponen \gls{pca} hingga 8 dimensi
masih mempertahankan pemisahan antar kelas secara visual,
sedangkan reduksi lebih jauh (misalnya $n_\text{components}=4$)
menyebabkan beberapa klaster saling tumpang tindih (\textit{overlap}).
Eksplorasi data ini mendukung pemilihan nilai $n_\text{components}$
sebagai salah satu parameter penting yang diuji dalam
pencarian \textit{grid} pada tahap optimasi model untuk mengurangi kompleksitas model dan efisiensi komputasi.
\textit{\gls{grid-search}} pada tahap optimasi model untuk mengurangi kompleksitas model dan efisiensi komputasi.
% \subsection{Visualisasi Ruang Fitur Non-Linear}
% Selain PCA, digunakan dua metode reduksi dimensi non-linear,
@@ -180,25 +179,25 @@ pencarian \textit{grid} pada tahap optimasi model untuk mengurangi kompleksitas
\subsection{Interpretasi dan Implikasi}
Hasil eksplorasi ini menunjukkan bahwa:
\begin{enumerate}
\item Variansi utama data dapat dijelaskan oleh sejumlah kecil komponen PCA, sehingga reduksi dimensi berpotensi meningkatkan efisiensi komputasi tanpa kehilangan informasi penting.
\item Visualisasi t-SNE dan PaCMAP memperlihatkan bahwa fitur STFT mampu mengelompokkan kondisi struktur yang cukup baik sesuai label kerusakan, mendukung validitas pemilihan STFT sebagai metode ekstraksi fitur.
\item Variansi utama data dapat dijelaskan oleh sejumlah kecil komponen \gls{pca}, sehingga reduksi dimensi berpotensi meningkatkan efisiensi komputasi tanpa kehilangan informasi penting.
\item Visualisasi \gls{tsne} dan \gls{pacmap} memperlihatkan bahwa fitur \gls{stft} mampu mengelompokkan kondisi struktur yang cukup baik sesuai label kerusakan, mendukung validitas pemilihan \gls{stft} sebagai metode ekstraksi fitur.
\item Perbedaan antara kanal sensor~A ($\mathcal{D}_A$) dan sensor~B ($\mathcal{D}_B$) tidak signifikan,
sehingga keduanya dapat diperlakukan sebagai dua sumber informasi
komplementer pada tahap pelatihan model.
\end{enumerate}
Temuan ini menjadi dasar untuk menentukan potensi jumlah komponen PCA yang akan digunakan pada \textit{grid search} saat optimasi \textit{hyperparameter} model SVM.
Temuan ini menjadi dasar untuk menentukan potensi jumlah komponen \gls{pca} yang akan digunakan pada \textit{grid search} saat optimasi \textit{hyperparameter} model \gls{svm}.
\section{Hasil \textit{Coarse Grid-Search}}
\label{sec:grid-results}
Setelah proses ekstraksi fitur dan pembentukan dataset berlabel,
tahap berikutnya adalah melakukan pencarian \textit{grid}
untuk mengoptimalkan parameter model \gls{svm}
tahap berikutnya adalah melakukan \textit{\gls{grid-search}}
untuk mengoptimalkan \textit{hyperparameter} model \gls{svm}
dengan kernel \gls{rbf} seperti yang disajikan dalam Tabel~\ref{tab:grid_search_parameters}.
Total kombinasi parameter yang diuji berjumlah \(5\times5\times8=200\) kandidat model
dengan skema \textit{stratified 5-foldcross-validation} menghasilkan total 1000 kali \textit{fitting}.
dengan skema \textit{\gls{stratified-k-fold}\gls{cross-validation}}$k=5$ menghasilkan total 1000 kali \textit{fitting}.
Setiap kombinasi dievaluasi menggunakan metrik akurasi rata-rata
pada data validasi. Proses ini memakan waktu hingga 1 jam 38 detik untuk Sensor A dan 1 jam 34 detik untuk Sensor B pada spesifikasi perangkat keras seperti pada Subbab~\ref{sec:hardware}.
@@ -206,7 +205,7 @@ pada data validasi. Proses ini memakan waktu hingga 1 jam 38 detik untuk Sensor
Tabel~\ref{tab:coarse_summary_A} dan~\ref{tab:coarse_summary_B} menunjukkan hasil ringkasan \textit{coarse grid-search} dengan nilai maksimum \textit{mean test score} untuk setiap konfigurasi $n_{\text{components}}$ pada Sensor A ($\mathcal{D}_A$) dan Sensor B ($\mathcal{D}_B$). Kolom $S_i$ menunjukkan akurasi tertinggi yang dicapai, sedangkan kolom $T_i$ mencatat waktu rata-rata (dalam detik) yang dibutuhkan untuk melatih model (\textit{mean fit time}) pada setiap kombinasi parameter.
Tabel~\ref{tab:coarse_summary_A} dan~\ref{tab:coarse_summary_B} menunjukkan hasil ringkasan \textit{coarse grid-search} dengan nilai maksimum \textit{mean test score} untuk setiap konfigurasi $n_{\text{components}}$ pada Sensor A ($\mathcal{D}_A$) dan Sensor B ($\mathcal{D}_B$). Kolom \gls{not:S_i} menunjukkan akurasi tertinggi yang dicapai, sedangkan kolom \gls{not:T_i} mencatat waktu rata-rata (dalam detik) yang dibutuhkan untuk melatih model (\textit{mean fit time}) pada setiap kombinasi parameter.
Dari hasil tersebut, terlihat bahwa $n_{\text{components}}=64$ sudah mencapa akurasi yang cukup tinggi untuk kedua kanal sensor, dengan akurasi $\pm99.7\%$, dengan peningkatan yang semakin kecil pada jumlah komponen yang lebih besar yaitu kurang dari 0.001\%. Hal ini menunjukkan bahwa data getaran struktur yang diekstraksi dengan \gls{stft} memiliki daya klasifikasi yang kuat terhadap kondisi struktur, dan penggunaan lebih dari 64 komponen utama memberikan peningkatan akurasi yang marginal.
@@ -277,10 +276,10 @@ Dari hasil tersebut, terlihat bahwa $n_{\text{components}}=64$ sudah mencapa aku
% \end{figure}
\subsection{Peta Akurasi terhadap Parameter SVM}
Untuk setiap kanal sensor, peta akurasi terhadap parameter $C$ dan~$\gamma$
pada konfigurasi PCA terbaik ($n_{\text{components}}=128$)
Untuk setiap kanal sensor, peta akurasi terhadap parameter \gls{not:C}dan~\gls{not:gamma}
pada konfigurasi \gls{pca} terbaik ($n_{\text{components}}=128$)
ditunjukkan pada Gambar~\ref{fig:svm_heatmap_A} dan~\ref{fig:svm_heatmap_B}. Terlihat bahwa area akurasi tinggi terbentuk pada
nilai \(C\) menengah dan \(\gamma\) kecil,
nilai \gls{not:C} menengah dan \gls{not:gamma} kecil,
yang menandakan keseimbangan antara margin yang cukup lebar
dan kompleksitas model yang moderat.
@@ -294,7 +293,7 @@ dan kompleksitas model yang moderat.
\caption{\textit{Heatmap mean test score} terhadap parameter $C$ dan~$\gamma$ untuk setiap komponen utama PCA pada Sensor A ($\mathcal{D}_A$).}
\caption{\textit{Heatmap mean test score} terhadap parameter \gls{not:C}dan~\gls{not:gamma} untuk setiap komponen utama PCA pada Sensor A ($\mathcal{D}_A$).}
\label{fig:svm_heatmap_A}
\end{figure}
@@ -308,7 +307,7 @@ dan kompleksitas model yang moderat.
\caption{\textit{Heatmap mean test score} terhadap parameter $C$ dan~$\gamma$ untuk setiap komponen utama PCA pada Sensor B ($\mathcal{D}_B$).}
\caption{\textit{Heatmap mean test score} terhadap parameter \gls{not:C}dan~\gls{not:gamma} untuk setiap komponen utama PCA pada Sensor B ($\mathcal{D}_B$).}
\label{fig:svm_heatmap_B}
\end{figure}
@@ -318,28 +317,16 @@ Selain mempertimbangkan akurasi rata-rata (\textit{mean test score})
sebagai satu-satunya metrik evaluasi, penelitian ini juga memperhitungkan
waktu pelatihan rata-rata (\textit{mean fit time}) untuk menilai efisiensi komputasi.
Hal ini penting karena peningkatan akurasi sering kali diikuti dengan
kenaikan waktu pelatihan yang tidak proporsional, sehingga diperlukan
kompromi antara performa dan kompleksitas.
kenaikan waktu pelatihan yang tidak proporsional.
Untuk mengukur keseimbangan tersebut, didefinisikan metrik efisiensi:
\begin{equation}
E_i = \frac{S_i}{T_i^{\alpha}},
\label{eq:efficiency_metric}
\end{equation}
dengan:
\begin{itemize}
\item$S_i$ = rata-rata skor akurasi hasil 5-\textit{fold cross-validation} (0–1),
\item$T_i$ = rata-rata waktu pelatihan per iterasi (dalam detik),
\end{itemize}
Metrik $E_i$ menggambarkan rasio akurasi terhadap biaya waktu pelatihan.
Semakin besar nilai $E_i$, semakin efisien model tersebut atau
Metrik \gls{not:E_i} menggambarkan rasio akurasi terhadap biaya waktu pelatihan.
Semakin besar nilai \gls{not:E_i}, semakin efisien model tersebut atau
model mampu mencapai akurasi tinggi dengan waktu pelatihan yang relatif singkat.
@@ -403,7 +390,7 @@ yang dibahas pada subbab berikutnya.
\section{Evaluasi Model \textit{Baseline}}
\label{sec:baseline_performance}
Model \textit{baseline} yang digunakan diperoleh dari \textit{coarse grid-search} pada Subbab~\ref{sec:efficiency_analysis} adalah SVM dengan kernel RBF, 32 komponen PCA, dan parameter $C=2^{10}$, $\gamma=2^{-10}$ untuk Sensor A, sedangkan untuk Sensor B adalah SVM dengan kernel RBF, 16 komponen PCA, dan parameter $C=2^{5}$, $\gamma=2^{-5}$. Pada bagian ini, dilakukan evaluasi performa model \textit{baseline} dengan data uji yang berbeda (\textit{Dataset} B).
Model \textit{baseline} yang digunakan diperoleh dari \textit{coarse \gls{grid-search}} pada Subbab~\ref{sec:efficiency_analysis} adalah \gls{svm} dengan kernel \gls{rbf}, 32 komponen \gls{pca}, dan \textit{hyperparameter}$C=2^{10}$, $\gamma=2^{-10}$ untuk Sensor A, sedangkan untuk Sensor B adalah SVM dengan kernel RBF, 16 komponen PCA, dan \textit{hyperparameter}$C=2^{5}$, $\gamma=2^{-5}$. Pada bagian ini, dilakukan evaluasi performa model \textit{baseline} dengan data uji yang berbeda (\textit{Dataset} B).
\subsection{Metrik Klasifikasi}
@@ -474,31 +461,31 @@ Dari Gambar~\ref{fig:confusion-matrix-baseline_A} dan~\ref{fig:confusion-matrix-
\section{\textit{Fine Grid-Search}}
Optimasi model yang dilakukan yaitu dengan melakukan \textit{fine grid-search} pada rentang \textit{hyperparameter} model \textit{baseline} yang digunakan pada Subbab~\ref{sec:baseline_performance}. Untuk Sensor A dengan $n_{\text{components}}=32$ rentang parameter yang dicari adalah
Optimasi model yang dilakukan yaitu dengan melakukan \textit{fine \gls{grid-search}} pada rentang \textit{hyperparameter} model \textit{baseline} yang digunakan pada Subbab~\ref{sec:baseline_performance}. Untuk Sensor A dengan $n_{\text{components}}=32$ rentang \textit{hyperparameter} yang dicari adalah
\end{align*}. Pada proses ini, \textit{standardscaler} dan \textit{stratifiedk-foldcrossvalidation} dengan $k=5$ tetap digunakan untuk menjaga konsistensi evaluasi model, sehingga total kombinasi parameter yang diuji adalah \(9\times9=81\) kandidat model dengan total 405 kali \textit{fitting}.
\end{align*}. Pada proses ini, \textit{\gls{standard-scaler}} dan \textit{\gls{stratified-k-fold}\gls{cross-validation}} dengan $k=5$ tetap digunakan untuk menjaga konsistensi evaluasi model, sehingga total kombinasi parameter yang diuji adalah \(9\times9=81\) kandidat model dengan total 405 kali \textit{fitting}.
Gambar~\ref{fig:svm_fine_heatmap} menunjukkan diagram \textit{heatmap} terhadap parameter \textit{fine grid-search}$C$ dan~$\gamma$ untuk masing-masing sensor. Akurasi tertinggi pada Sensor A diperoleh pada $C=\{\,2^{8}, \,2^{8.5}, \,2^{9}, \,2^{9.5}, \,2^{10}, \,2^{10.5},\,2^{11}, \,2^{11.5}, \,2^{12}\,\}$ dan $\gamma=2^{-9.5}$ dengan akurasi meningkat 0.15\% menjadi 99.54\%, sedangkan pada Sensor B diperoleh pada $C =\{\,2^{5},\,2^{5.5}\,\}$ dan $\gamma=\{\,2^{-3},\,2^{-3.5},\,2^{-4}\,\}$ dengan akurasi meningkat 0.05\% menjadi 99.49\%. Hasil ini menunjukkan bahwa optimasi \textit{hyperparameter} lebih lanjut dapat meningkatkan performa model meskipun peningkatannya relatif kecil dibandingkan dengan model \textit{baseline}.
Gambar~\ref{fig:svm_fine_heatmap} menunjukkan diagram \textit{heatmap} terhadap parameter \textit{fine grid-search}\gls{not:C}dan~\gls{not:gamma} untuk masing-masing sensor. Akurasi tertinggi pada Sensor A diperoleh pada $C=\{\,2^{8}, \,2^{8.5}, \,2^{9}, \,2^{9.5}, \,2^{10}, \,2^{10.5},\,2^{11}, \,2^{11.5}, \,2^{12}\,\}$ dan $\gamma=2^{-9.5}$ dengan akurasi meningkat 0.15\% menjadi 99.54\%, sedangkan pada Sensor B diperoleh pada $C =\{\,2^{5},\,2^{5.5}\,\}$ dan $\gamma=\{\,2^{-3},\,2^{-3.5},\,2^{-4}\,\}$ dengan akurasi meningkat 0.05\% menjadi 99.49\%. Hasil ini menunjukkan bahwa optimasi \textit{hyperparameter} lebih lanjut dapat meningkatkan performa model meskipun peningkatannya relatif kecil dibandingkan dengan model \textit{baseline}.
\begin{figure}[H]
\centering
\subfloat[Sensor A (PCA 32)]{\includegraphics[width=.48\textwidth]{chapters/img/sensor1/grid_fine_pca32.png}}
\centering
\subfloat[Sensor B (PCA 16)]{\includegraphics[width=.48\textwidth]{chapters/img/sensor2/grid_fine_pca16.png}}
\caption{\textit{Heatmap mean test score} terhadap \textit{fine grid-search parameter}$C$ dan~$\gamma$}
\caption{\textit{Heatmap mean test score} terhadap \textit{fine grid-search parameter}\gls{not:C}dan~\gls{not:gamma}}
\label{fig:svm_fine_heatmap}
\end{figure}
\section{Evaluasi Model \textit{Fine Grid-Search}}
Model \textit{fine grid-search} dilatih pada \textit{dataset} A dan perlu dievaluasi performanya dengan data uji yang berbeda (\textit{dataset} B) untuk mengukur peningkatan performa dibandingkan model \textit{baseline}.
Model \textit{fine \gls{grid-search}} dilatih pada \textit{dataset} A dan perlu dievaluasi performanya dengan data uji yang berbeda (\textit{dataset} B) untuk mengukur peningkatan performa dibandingkan model \textit{baseline}.
\subsection{Metrik Klasifikasi}
Hasil performa model \textit{fine grid-search} pada data uji disajikan pada Tabel~\ref{tab:metrics-fine-a} dan~\ref{tab:metrics-fine-b}.
Hasil performa model \textit{fine \gls{grid-search}} pada data uji disajikan pada Tabel~\ref{tab:metrics-fine-a} dan~\ref{tab:metrics-fine-b}.
\caption{\textit{Confusion matrix} model \textit{fine grid-search} pada Sensor B}
\caption{\textit{Confusion matrix} model \textit{fine \gls{grid-search}} pada Sensor B}
\label{fig:cm_fine_s2a_eval}
\end{figure}
\section{Model \textit{Inference} dan Visualisasi Prediksi}
Setelah model \textit{fine grid-search} dievaluasi, dilakukan proses \textit{inference} pada data uji untuk memvisualisasikan prediksi model. Gambar~\ref{fig:inference_undamaged}, \ref{fig:inference_damaged_17}, dan~\ref{fig:inference_damaged_30} menunjukkan beberapa hasil prediksi model pada Sensor A dan Sensor B dalam \textit{heatmap} dan grafik probabilitasnya.
Setelah model \textit{fine \gls{grid-search}} dievaluasi, dilakukan proses \textit{inference} pada data uji untuk memvisualisasikan prediksi model. Gambar~\ref{fig:inference_undamaged}, \ref{fig:inference_damaged_17}, dan~\ref{fig:inference_damaged_30} menunjukkan beberapa hasil prediksi model pada Sensor A dan Sensor B dalam \textit{heatmap} dan grafik probabilitasnya.
Pada kasus struktur tanpa kerusakan (Gambar~\ref{fig:inference_undamaged}), model memberikan prediksi \textit{false-positive}, sehingga beberapa titik pada \textit{heatmap} menunjukkan probabilitas kerusakan hingga 50\% meskipun struktur sebenarnya dalam kondisi baik, sedangkan pada kasus kerusakan \textit{joint} 17 (Gambar~\ref{fig:inference_damaged_17}) dan \textit{joint} 30 (Gambar~\ref{fig:inference_damaged_30}), model berhasil mengidentifikasi lokasi kerusakan dengan probabilitas tinggi ($\approx100\%$) pada area yang sesuai. Hal ini menunjukkan bahwa model memiliki kemampuan deteksi kerusakan yang baik, meskipun masih terdapat beberapa \textit{false-positive} pada kondisi tanpa kerusakan.
@@ -570,7 +557,7 @@ Pada kasus struktur tanpa kerusakan (Gambar~\ref{fig:inference_undamaged}), mode
\centering
\subfloat[Grafik probabilitas prediksi model pada Sensor B]{\includegraphics[width=.48\textwidth]{chapters/img/sensor2/pod_fine_s2a_undamaged.png}}\hfill
\subfloat[\textit{Heatmap} prediksi model pada Sensor B]{\includegraphics[width=.48\textwidth]{chapters/img/sensor2/inference_fine_s2a_undamaged.png}}
\caption{Hasil \textit{inference} model \textit{fine grid-search} pada data uji (\textit{Dataset} B) kasus struktur tidak rusak.}
\caption{Hasil \textit{inference} model \textit{fine \gls{grid-search}} pada data uji (\textit{Dataset} B) kasus struktur tidak rusak.}
\label{fig:inference_undamaged}
\end{figure}
\begin{figure}[H]
@@ -580,7 +567,7 @@ Pada kasus struktur tanpa kerusakan (Gambar~\ref{fig:inference_undamaged}), mode
\centering
\subfloat[Grafik probabilitas prediksi model pada Sensor B]{\includegraphics[width=.48\textwidth]{chapters/img/sensor2/pod_fine_s2a_damaged17.png}}\hfill
\subfloat[\textit{Heatmap} prediksi model pada Sensor B]{\includegraphics[width=.48\textwidth]{chapters/img/sensor2/inference_fine_s2a_damaged17.png}}
\caption{Hasil \textit{inference} model \textit{fine grid-search} pada data uji (\textit{Dataset} B) kasus kerusakan \textit{joint} 17.}
\caption{Hasil \textit{inference} model \textit{fine \gls{grid-search}} pada data uji (\textit{Dataset} B) kasus kerusakan \textit{joint} 17.}
\label{fig:inference_damaged_17}
\end{figure}
\begin{figure}[H]
@@ -590,7 +577,7 @@ Pada kasus struktur tanpa kerusakan (Gambar~\ref{fig:inference_undamaged}), mode
\centering
\subfloat[Grafik probabilitas prediksi model pada Sensor B]{\includegraphics[width=.48\textwidth]{chapters/img/sensor2/pod_fine_s2a_damaged30.png}}\hfill
\subfloat[\textit{Heatmap} prediksi model pada Sensor B]{\includegraphics[width=.48\textwidth]{chapters/img/sensor2/inference_fine_s2a_damaged30.png}}
\caption{Hasil \textit{inference} model \textit{fine grid-search} pada data uji (\textit{Dataset} B) kasus kerusakan \textit{joint} 30.}
\caption{Hasil \textit{inference} model \textit{fine \gls{grid-search}} pada data uji (\textit{Dataset} B) kasus kerusakan \textit{joint} 30.}
% \addterm{machinelearning}{pemelajaran mesin}{pemelajaran mesin}{machine learning}{A program or system that trains a model from input data. The trained model can make useful predictions from new (never-before-seen) data drawn from the same distribution as the one used to train the model.}
% explained variance ratio
\newglossaryentry{explained-variance-ratio}{
name={explained variance ratio},
description={Proporsi variansi yang dapat dijelaskan oleh setiap komponen utama dalam analisis \gls{pca}. Metrik ini memberikan informasi tentang seberapa baik komponen tersebut merepresentasikan data asli.},
sort={Explained Variance Ratio}
}
\newglossaryentry{algoritma-genetika}{
name={Algoritma Genetika},
description={Kelas algoritma optimasi dan pencarian yang terinspirasi oleh proses evolusi biologis, seperti seleksi alam, mutasi, dan rekombinasi. Algoritma ini sering digunakan untuk menemukan solusi perkiraan untuk masalah yang kompleks dan sulit dipecahkan secara analitis.},
sort={Algoritma Genetika}
}
% standard scaler
\newglossaryentry{standard-scaler}{
name={standard scaler},
description={Metode normalisasi data yang mengubah fitur sehingga memiliki distribusi dengan rata-rata (\textit{mean}) nol dan standar deviasi satu.},
sort={standard scaler}
}
% grid search
\newglossaryentry{grid-search}{
name={grid search},
description={Metode pencarian \textit{hyperparameter} yang melibatkan eksplorasi sistematis dari kombinasi nilai-nilai \textit{hyperparameter} yang telah ditentukan sebelumnya. Setiap kombinasi dievaluasi menggunakan teknik \gls{cross-validation} untuk menentukan kinerja model, dan kombinasi terbaik dipilih berdasarkan metrik evaluasi yang diinginkan.},
sort={grid search}
}
% stratified k-fold
\newglossaryentry{stratified-k-fold}{
name={stratified k-fold},
description={Teknik pembagian data untuk \gls{cross-validation} di mana data dibagi menjadi \(k\) bagian (\textit{fold}) dengan mempertahankan proporsi kelas yang sama di setiap \textit{fold}. Hal ini penting untuk \textit{dataset} yang tidak seimbang, karena memastikan bahwa setiap \textit{fold} mencerminkan distribusi kelas asli, sehingga menghasilkan evaluasi model yang lebih andal.},
sort={stratified k-fold}
}
\newglossaryentry{deep-learning}{
name={\textit{deep learning}},
name={deep learning},
description={Bagian dari keluarga metode pembelajaran mesin yang lebih luas berdasarkan jaringan saraf tiruan dengan banyak lapisan (deep neural networks). Arsitektur ini memungkinkan model untuk belajar representasi data secara hierarkis, mulai dari fitur tingkat rendah hingga konsep abstrak tingkat tinggi.},
sort={Pembelajaran Mendalam}
sort={deep learning}
}
\newglossaryentry{jaringan-saraf-tiruan}{
@@ -73,10 +97,10 @@
sort={Heuristik}
}
\newglossaryentry{validasi-silang}{
name={Validasi Silang (Cross-Validation)},
\newglossaryentry{cross-validation}{
name={cross-validation},
description={Teknik statistik untuk mengevaluasi seberapa baik hasil analisis statistik (seperti model prediktif) akan generalisasi ke kumpulan data independen. Ini penting untuk menghindari overfitting dan mendapatkan estimasi kinerja model yang lebih andal pada data yang belum pernah dilihat.},
description={Rata-rata skor akurasi hasil \textit{fold cross-validation} pada \textit{grid-search} (0–1)},
sort={S_i},
type=notation,
}
\newglossaryentry{not:T_i}{
name={\ensuremath{T_i}},
description={Rata-rata waktu latih hasil \textit{fold cross-validation} pada \textit{grid-search} (dalam detik)},
sort={T_i},
type=notation,
}
\newglossaryentry{not:E_i}{
name={\ensuremath{E_i}},
description={Metrik efisiensi untuk rasio antara akurasi dan waktu latih \textit{fold} pada \textit{grid-search}},
sort={E_i},
type=notation,
}
% SVM Hyperparameters
\newglossaryentry{not:C}{
name={\ensuremath{C}},
description={Parameter regulasi pada SVM yang mengontrol \textit{trade-off} antara memaksimalkan margin dan meminimalkan kesalahan klasifikasi pada data pelatihan. Nilai yang lebih besar memberikan penalti lebih tinggi untuk kesalahan klasifikasi, sehingga menghasilkan margin yang lebih sempit.},
sort={C},
type=notation,
}
\newglossaryentry{not:gamma}{
name={\ensuremath{\gamma}},
description={Parameter kernel pada SVM dengan kernel RBF yang menentukan jangkauan pengaruh dari satu sampel pelatihan. Nilai kecil berarti jangkauan pengaruh yang luas, sedangkan nilai besar berarti jangkauan yang sempit.},
sort={gamma},
type=notation,
}
\newglossaryentry{not:s_sensor}{
name={$s$},
description={Index representing the sensor side (e.g., identifying Sensor A or Sensor B).},
Reference in New Issue
Block a user
Blocking a user prevents them from interacting with repositories, such as opening or commenting on pull requests or issues. Learn more about blocking a user.