ANALISIS
REGRESI BERGANDA DENGAN MENGGUNAKAN SPSS
Nama :
Larasati Widianto Putri
NIM :
18510133
Mata Kuliah : Statistik
Dosen : M. Nanang Choiruddin,
SE.,MM
Universitas : UIN Malang
Analisis regresi merupakan salah satu teknik analisis data dalam
statistika yang seringkali digunakan untuk mengkaji hubungan antara beberapa
variabel dan meramal suatu variable.[1]Regresi
linier berganda merupakan model persamaan yang menjelaskan hubungan satu
variabel tak bebas atau response (Y) dengan dua atau lebih variabel bebas atau predictor(X1,
X2,...Xn). Variabel bebas atau predictor (X1, X2,...Xn) dalam statistika biasa
disebut dengan variable independen, yang
merupakan variabel penelitian yang memengaruhi atau faktor-faktor yang diukur,
dimanipulasi atau dipilih oleh seorang peneliti untuk menetapkan dan menentukan
hubungan antara fenomena yang sedang diamati terhadap variavel tak bebas atau
biasa disebut variable dependen. Variabel
dependen adalah tipe variabel yang dijelaskan atau dipengaruhi oleh
variabel independen. Kedua tipe variabel ini merupakan kategori variabel
penelitian yang paling sering digunakan dalam penelitian karena mempunyai
kemampuan aplikasi yang luas.
Tujuan
dari uji regresi linier berganda adalah untuk memprediksi nilai variable tak
bebas (Y) atau yang biasa disebut dengan variable dependen apabila dipengaruhi
oleh nilai-nilai variabel bebasnya predictor(X1, X2,..., Xn) atau variable independent lain yang diketahui.
Disamping itu juga untuk dapat mengetahui bagaimanakah arah hubungan variabel independent
terhadap variable dependent nya. [2]
Analisis persamaan regresi selain untuk memprediksi
nilai Dependent Variable (Y), juga dapat digunakan untuk mengetahui arah
dan besarnya pengaruh Independent Variable (X) terhadap Dependent
Variable (Y). Asumsi yang harus terpenuhi dalam analisis regresi adalah:
1. Residual menyebar normal (asumsi normalitas)
2. Antar Residual saling bebas (Autokorelasi)
3. Kehomogenan ragam residual (Asumsi
Heteroskedastisitas)
4. Antar Variabel independent tidak berkorelasi
(multikolinearitas)
Analisis regresi dengan dua atau lebih Independent
Variable , dengan formulasi umum:
Y
= a + b1X1 + b2X2 + … + bnXn + e
Dimana:
Y = Dependent variable
a = konstanta b1 = koefisien regresi X1,
b2 = koefisien regresi X2, dst.
e
= Residual / Error[3]
Analisis hasil output Regresi berganda menggunakan SPSS :
1.
R Square sebagai ukuran kecocokan
model
Tabel Variables
Entered menunjukkan variabel independent yang dimasukkan ke dalam model,
Nilai R Square pada Tabel Model Summary adalah prosentase
kecocokan model, atau nilai yang
menunjukkan seberapa besar variabel independent menjelaskan variabel dependent,
R2 pada persamaan regresi rentan terhadap penambahan variabel independent,
dimana semakin banyak variabel Independent yang terlibat, maka nilai R2 akan
semakin besar, Karena itulah digunakan R2 adjusted pada analisis regresi
linier Berganda, dan digunakan R2 pada analisis regresi sederhana, Pada gambar
output 4,6, terlihat nilai R Square adjusted sebesar 0,998 artinya variabel
independent dapat menjelaskan variabel dependent sebesar 99,8%, sedangkan 0,2%
dijelaskan oleh faktor lain yang tidak terdapat dalam model. Jadi , R Square (korelasi koefisien) sebesar
menunjukkan kontribusi yang disumbangkan X1 dan X2 kepada Y.[4]
R adalah korelasi berganda, yaitu korelasi antara dua
atau lebih variabel independen terhadap variabel dependen, dalam regresi
sederhana angka R ini menunjukkan korelasi sederhana (korelasi Pearson) antara
variabel X terhadap Y. Jika nilainya mendekati 1 maka hubungannya erat.
R Square (R2) atau
kuadrat dari R, yaitu menunjukkan koefisien determinasi. Angka ini akan diubah
ke bentuk persen, yang artinya prosentase sumbangan pengaruh variabel
independen terhadap variabel dependen. Nilai R2 sebesar 0,999 artinya
prosentase sumbangan pengaruh variabel biaya produksi terhadap tingkat
penjualan sebesar 99,9%, sedangkan sisanya dipengaruhi oleh variabel lain yang
tidak dimasukkan dalam model ini.
Adjusted R Square,
adalah R Square yang telah disesuaikan, nilai sebesar 0,998 ini juga
menunjukkan sumbangan pengaruh variabel independen terhadap variabel dependen.
Adjusted R Square biasanya untuk mengukur sumbangan pengaruh jika dalam regresi
menggunakan lebih dari dua variabel independen. Standard Error of the Estimate, adalah ukuran kesalahan prediksi.
Durbin-Watson,
yaitu nilai yang menunjukkan ada atau tidaknya autokorelasi dalam model
regresi. Autokorelasi adalah hubungan yang terjadi antara residual dari
pengamatan satu dengan pengamatan yang lain. Model regresi yang baik seharusnya
tidak terjadi autokorelasi. Untuk mendeteksi ada atau tidaknya autokorelasi
maka nilai DW akan dibandingkan dengan DW tabel, dengan kriteria sebagai
berikut:
- Jika DW < dL atau DW > 4-dL berarti terdapat
autokorelasi.
- Jika DW terletak antara dU dan 4-dU berarti tidak
ada autokorelasi.
- Jika DW terletak antara
dL dan dU atau diantara 4-dU dan 4-dL, maka tidak menghasilkan kesimpulan yang
pasti. [5]
2. Uji
F
Uji F dalam analisis regresi linier berganda
bertujuan untuk mengetahui pengaruh variabel independent secara simultan dan
signifikan terhadap variabel dependen yang
ditunjukkan oleh dalam table ANOVA.
Rumusan hipotesis yang digunakan
adalah:
·
H0 Kedua variabel independent secara simultan
tidak berpengaruh signifikan terhadap variabel dependent
·
H1 Kedua variabel independent secara simultan
berpengaruh signifikan terhadap variabel dependent
Kriteria pengujiannya adalah:
·
Jika nilai signifikansi > 0,05 maka
keputusannya adalah terima H0 atau variable independent secara simultan tidak
berpengaruh signifikan terhadap variabel dependent.
·
Jika nilai signifikansi < 0,05 maka
keputusannya adalah tolak H0 atau variabel dependent secara simultan
berpengaruh signifikan terhadap variabel dependent,
Berdasarkan kasus,
Nilai Sig, yaitu sebesar 0,000. Nilai 0,000 < 0,05 sehingga dapat
disimpulkan bahwa variable independent secara simultan berpengaruh signifikan
terhadap variable dependennya. [6]
3.
Uji t
Uji t digunakan untuk mengetahui pengaruh
masing-masing variabel independent secara parsial, ditunjukkan oleh Tabel Coefficients pada (Gambar 4,8)
Unstandardized Coefficients,
adalah nilai koefisien yang tidak terstandarisasi atau tidak ada patokan, nilai
ini menggunakan satuan yang digunakan pada data pada variabel dependen,
misalnya Rp, % dsb. Koefisien B terdiri nilai konstan (harga Y jika X = 0) dan
koefisien regresi (nilai yang menunjukkan peningkatan atau penurunan variabel Y
yang didasarkan variabel X), nilai-nilai inilah yang masuk dalam persamaa
regresi linier. Apabila nilainya positif maka pengaruhnya juga positif atau
semakin besar terhadap variable dependennya. Contohnya pada tabel diatas dapat
disimpulkan bahwa Variabel Penjualan mempengaruhi Jumlah Keuntungan yang
disalurkan sebesar 0,06, Nilai ini positif artinya semakin besarnya Penjualan,
maka semakin besar pula jumlah keuntungan, artinya jika penjualan naik sebesar
1.000 satuan maka keuntungan akan naik sebesar 60 satuan. Sedangkan Standard Error adalah nilai maksimum kesalahan yang dapat terjadi
dalam memperkirakan rata-rata populasi berdasar sampel. Nilai ini untuk mencari
t hitung dengan cara koefisien dibagi standard error.
Standardized Coefficients (nilai
koefisien yang telah terstandarisasi atau ada patokan tertentu, nilai koefisien
Beta semakin mendekati 0 maka hubungan antara variabel X dengan Y semakin tidak
kuat. t hitung adalah pengujian
signifikansi untuk mengetahui pengaruh variabel X terhadap Y, apakah
berpengaruh signifikan atau tidak. Untuk mengetahui hasil signifikan atau
tidak, angka t hitung akan dibandingkan dengan t tabel.
Signifikansi,
adalah besarnya probabilitas atau peluang untuk memperoleh kesalahan dalam
mengambil keputusan. Jika pengujian menggunakan tingkat signifikansi 0,05
artinya peluang memperoleh kesalahan maksimal 5%, dengan kata lain kita percaya
bahwa 95% keputusan adalah benar dan dapat disimpulkan bahwa hasilnya Sig
<0,05 maka berpengaruh secara signifikan.
Collinearity Statistics,
adalah angka yang menunjukkan ada atau tidaknya hubungan linear secara sempurna
atau mendekati sempurna antar variabel independen dalam model regresi, dengan
menggunakan nilai Tolerance dan VIF. Asumsi klasik yang digunakan pada model
regresi linier berganda yaitu bahwa tidak adanya multikolinearitas antar
variabel independen. Variabel yang menyebabkan multikolinearitas dapat dilihat
dari nilai tolerance yang lebih kecil dari 0,1 atau nilai VIF yang lebih besar
dari nilai 10 (Hair et al. 1992). Dari output di dapat nilai tolerance lebih
dari 0,1 dan VIF kurang
dari 10, sehingga tidak terjadi multikolinearitas.[7]
Analisis Regresi Linier
Berganda yang lain dapat seperti :
Analisisnya
yaitu N menunjukkan jumlah responden pada penelitian, dan Mean menunjukkan
rata-rata tingkat pengaruhnya terhadap variable dependent.
Tabel
Correlations menunjukkan Korelasi secara parsial antara variabel independent
(X1, X2, X3 …) terhadap variable dependent (Y) jika diperoleh nilai positif,
hal ini menunjukkan adanya hubungan positif (searah) yang kuat antara (X1, X2,
X3…) dan (Y). Tabel ini seperti tabel Model Summary tetapi menunjukkan korelasi
masing-masing variable indepdndent (X) terhadap variable dependentnya (Y)
Tabel ini hanya berisi informasi bahwa semua
variabel berhasil dimasukkan (entered), tidak ada yang dikeluarkan (removed).
Tabel Residuals
Statisticsa ) mengemukakan ringkasan hasil dari “Predicted Value” (nilai ,yang
diprediksi) yang berisi nilai Minimal, Maksimum, Mean, Standar deviation, dan
N.
Uji normalitas residual digunakan untuk menguji apakah nilai
residual yang dihasilkan dari regresi terdistribusi secara normal atau tidak.
Model regresi yang baik adalah yang memiliki nilai residual yang terdistribusi
secara normal. Metode yang digunakan adalah metode grafik, yaitu dengan melihat
penyebaran data pada sumber diagonal pada grafik Normal P-P Plot of regression
standardized. Sebagai dasar pengambilan keputusannya, jika titik-titik menyebar
sekitar garis dan mengikuti garis diagonal maka nilai residual tersebut telah
normal.
Heterokedastisitas adalah varian residual yang tidak
sama pada semua pengamatan di dalam model regresi. Regresi yang baik seharusnya
tidak terjadi heteroskedastisitas. Berikut dilakukan uji heteroskedastisitas
dengan metode grafik yaitu dengan melihat pola titik-titik pada grafik regresi.
Dasar kriterianya dalam pengambilan keputusan yaitu:
·
Jika ada pola tertentu, seperti
titik-titik yang ada membentuk suatu pola tertentu yang teratur (bergelombang,
melebar kemudian menyempit), maka terjadi
heteroskedastisitas.
·
Jika tidak ada pola yang jelas, seperti
titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak
terjadi heteroskedastisitas. [8]
Model Regresi Linier Berganda disebut sebagai model yang baik jika
memenuhi kriteria BLUE (Best Linear Unbiased Estimator). BLUE dapat dicapai
bila memenuhi asumsi klasik regresi. Pemenuhan Asumsi klasik regresi dapat
dilakukan dengan Uji Durbin Waston pada tabel Model Summary untuk memenuhi Asumsi
Autokorelasi, Asumsi Normalitas menggunakan analisis grafik P-P Plot of
regression standardized, Asumsi Heteroskedastisitas
menggunakan grafik Scatterplot, dan Asumsi Asumsi Multikolinieritas menggunakan
nilai Tolerance dan VIF pada Collinearity
Statistics di tabel Coeffisients.
DAFTAR PUSTAKA
Agus
Tri Basuki. 2014. Penggunaan SPSS dalam
Statistik. (Sleman : Danisa Media)
Desti
Dirnaeni. 2015. Teknik Proyeksi Bisnis. (
Depok :Universitas Gunadarma)
Imam Machali. 2015. “STATISTIK ITU MUDAH, Menggunakan SPSS Sebagai
Alat Bantu Statistik” Yogyakarta : Lembaga
Ladang Kata Bekerja sama dengan MPI FITK UIN Sunan Kalijaga Yogyakarta dan
Pustaka An Nur STIQ An Nur Yogyakarta)
M.H Kutner, C.J. Nachtsheim., dan J. Neter.
2004. Applied Linear Regression Models.
4thed. (New York: McGraw-Hill Companies, Inc)
Rochmat
Aldy Purnomo, 2016. Analisis Statistik Ekonomi dan Bisnis Dengan
SPSS. (Ponorogo : WADE
Group)
[1] M.H
Kutner, C.J. Nachtsheim., dan J. Neter. 2004. Applied Linear Regression Models. 4thed. (New York: McGraw-Hill
Companies, Inc)
[2]
Desti Dirnaeni. 2015. Teknik Proyeksi
Bisnis. ( Depok :Universitas Gunadarma)
[3]
Agus Tri Basuki. 2014. Penggunaan SPSS
dalam Statistik. (Sleman : Danisa Media)
[4] Ibid, Hlm
89
[5]
Rochmat Aldy Purnomo, 2016. Analisis Statistik Ekonomi dan Bisnis Dengan
SPSS. (Ponorogo : WADE
Group)
[6]
Agus Tri Basuki. 2014. Penggunaan SPSS
dalam Statistik. (Sleman : Danisa Media)
[7] Rochmat
Aldy Purnomo, 2016. Analisis Statistik Ekonomi dan Bisnis Dengan
SPSS. (Ponorogo : WADE
Group)
[8]
Imam Machali.
2015. “STATISTIK
ITU MUDAH, Menggunakan SPSS Sebagai Alat Bantu Statistik” Yogyakarta : Lembaga Ladang
Kata Bekerja sama dengan MPI FITK UIN Sunan Kalijaga Yogyakarta dan Pustaka An
Nur STIQ An Nur Yogyakarta)
sangat membantu banget untuk memahami regresi berganda
BalasHapusTerimakasih penulis . Sangat membantu bagi saya . Terus lanjutkan menulisnya dan tetap semangat
BalasHapusRingkas, padat, dan jelas. Terimakasih tulisannya sangat membantu saya mempelajari regresi berganda menggunakan spss :)
BalasHapusContohnya sangat mudah dipahami.. terimakasih ilmunya kak semoga bermanfaat🙏
BalasHapusWah sangat bermanfaat kak
BalasHapusSemoga bisa dapat nilai A+
Sangat bagus infonya dan mudah dipahami. pokonya mantulll
BalasHapusWaah sangat bermanfaat sekalii, penjelasannya mudah dimengerti
BalasHapusSangat bermanfaat dan membantu memahami mengenai analisis regresi berganda. Terima kasih kak
BalasHapusTerimakasih tulisan yg sangat membantu dan bermanfaat
BalasHapusTerima kasih sangat menambah wawasan
BalasHapusTerima kasih, materinya sangat bermanfaat
BalasHapusTerima kasih kak sharing ilmunya, semoga masuk surga
BalasHapus