UJI CHI SQUARE/ FISHER/ LIKELIHOOD DAN CROSSTABS

UJI CHI SQUARE/ FISHER/ LIKELIHOOD DAN CROSSTABS
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj-cwj_kooS0mwWURM68z26UrG1CnH14tMkSGc55OaUe4V4YFR3EPPAX2z9zo_vCSlmMOyEw9ejrbzSAN09ihFgIUayfdtjpO9gy1TrdTQ8Una0z2-7e8LiSJszrUBXC2zVnfJOm9WtAA4/s72-c/Syarat%252BChi%252BSquare%252BTidak%252Bada%252Bexpected%252Byang%252Bnilainya%252Bkurang%252Bdari%252B5.jpg
Rp 80.000

UJI CHI SQUARE/ FISHER/ LIKELIHOOD (masimal hingga 5 variabel) DAN CROSSTABS

Chi-Square Tests and Statistics

When you specify the CHISQ option in the TABLES statement, PROC FREQ performs the following chi-square tests for each two-way table: Pearson chi-square, continuity-adjusted chi-square for 2 ×2tables, likelihood-ratio chi-square, Mantel-Haenszel chi-square, and Fisher's exact test for 2 ×2 tables. Also, PROC FREQ computes the following statistics derived from the Pearson chi-square: the phi coefficient, the contingency coefficient, and Cramer's V. PROC FREQ computes Fisher's exact test for general R ×C tables when you specify the FISHER (or EXACT) option in the TABLES statement, or, equivalently, when you specify the FISHER option in the EXACT statement.
For one-way frequency tables, PROC FREQ performs a chi-square goodness-of-fit test when you specify the CHISQ option. The other chi-square tests and statistics described in this section are defined only for two-way tables and so are not computed for one-way frequency tables.
All the two-way test statistics described in this section  test the null hypothesis of no association between the row variable and the column variable. When the sample size n is large, these test statistics are distributed approximately as chi-square when the null hypothesis is true. When the sample size is not large, exact tests may be useful. PROC FREQ computes exact tests for the following chi-square statistics when you specify the corresponding option in the EXACT statement: Pearson chi-square, likelihood-ratio chi-square, and Mantel-Haenszel chi-square. See the section "Exact Statistics" for more information.
Note that the Mantel-Haenszel chi-square statistic is appropriate only when both variables lie on an ordinal scale. The other chi-square tests and statistics in this section are appropriate for either nominal or ordinal variables. The following sections give the formulas that PROC FREQ uses to compute the chi-square tests and statistics. For further information on the formulas and on the applicability of each statistic, refer to Agresti (1996), Stokes, Davis, and Koch (1995), and the other references cited for each statistic.

Chi-Square Test for One-Way Tables

For one-way frequency tables, the CHISQ option in the TABLES statement computes a chi-square goodness-of-fit test. Let C denote the number of classes, or levels, in the one-way table. Let fi denote the frequency of class i (or the number of observations in class i) for i = 1,2,...,C. Then PROC FREQ computes the chi-square statistic as
Q_{P} = \sum_{i=1}^C
 \frac{( f_{i} - e_{i})^2} {e_{i}}
where ei is the expected frequency for class i under the null hypothesis.
In the test for equal proportions, which is the default for the CHISQ option, the null hypothesis specifies equal proportions of the total sample size for each class. Under this null hypothesis, the expected frequency for each class equals the total sample size divided by the number of classes,
 e_{i} =  n / C 
 { for } i = 1,2, ... ,C
In the test for specified frequencies, which PROC FREQ  computes when you input null hypothesis frequencies using the TESTF= option, the expected frequencies are those TESTF= values. In the test for specified proportions, which PROC FREQ computes when you input null hypothesis proportions using the TESTP= option,  the expected frequencies are determined from the TESTP= proportions pi, as
 e_{i} = p_{i} \cdot n 
 { for } i = 1,2, ... ,C
Under the null hypothesis (of equal proportions, specified frequencies, or specified proportions), this test statistic has an asymptotic chi-square distribution, with C - 1 degrees of freedom. In addition to the asymptotic test, PROC FREQ computes the exact one-way chi-square test when you specify the CHISQ option in the EXACT statement.

Chi-Square Test for Two-Way Tables

The Pearson chi-square statistic for two-way tables involves the differences between the observed and expected frequencies, where the expected frequencies are computed under the null hypothesis of independence. The chi-square statistic is computed as
Q_P = \sum_i \sum_j \frac{(n_{ij} - e_{ij})^2}{e_{ij}}
where
eij = [(ni ·   n·j)/n]
When the row and column variables are independent, QP has an asymptotic chi-square distribution with (R-1)(C-1) degrees of freedom. For large values of QP, this test rejects the null hypothesis in favor of the alternative hypothesis of general association. In addition to the asymptotic test, PROC FREQ computes the exact chi-square test when you specify the PCHI or CHISQ option in the EXACT statement.
For a 2 ×2 table, the Pearson chi-square is also appropriate for testing the equality of two binomial proportions or, for R ×2 and 2 ×C tables, the homogeneity of proportions. Refer to Fienberg (1980).

Likelihood-Ratio Chi-Square Test

The likelihood-ratio chi-square statistic involves the ratios between the observed and expected frequencies. The statistic is computed as
G^2 = 2 \sum_i \sum_j n_{ij}  
 \ln ( \frac{n_{ij}}{e_{ij}} )
When the row and column variables are independent, G2 has an asymptotic chi-square distribution with (R-1)(C-1) degrees of freedom. In addition to the asymptotic test, PROC FREQ computes the exact test when you specify the LRCHI or CHISQ option in the EXACT statement.

Continuity-Adjusted Chi-Square Test

The continuity-adjusted chi-square statistic for 2 ×2 tables is similar to the Pearson chi-square, except that it is adjusted for the continuity of the chi-square distribution. The continuity-adjusted chi-square is most useful for small sample sizes. The use of the continuity adjustment is controversial; this chi-square test is more conservative, and more like Fisher's exact test, when your sample size is small. As the sample size increases, the statistic becomes more and more like the Pearson chi-square.

The statistic is computed as
Q_C = \sum_i \sum_j 
 \frac { [  \max (0,| n_{ij} - e_{ij}|-0.5)  ]^2}
 { e_{ij}}
Under the null hypothesis of independence, QC has an asymptotic chi-square distribution with (R-1)(C-1) degrees of freedom.

Mantel-Haenszel Chi-Square Test

The Mantel-Haenszel chi-square statistic tests the alternative hypothesis that there is a linear association between the row variable and the column variable. Both variables must lie on an ordinal scale. The statistic is computed as
QMH = (n-1)r2
where r2 is the Pearson correlation between the row variable and the column variable. For a description of the Pearson correlation, see the "Pearson Correlation Coefficient" section. The Pearson correlation and, thus, the Mantel-Haenszel chi-square statistic use the scores that you specify in the SCORES= option in the TABLES statement.
Under the null hypothesis of no association, QMH has an asymptotic chi-square distribution with 1 degree of freedom. In addition to the asymptotic test, PROC FREQ computes the exact test when you specify the MHCHI or CHISQ option in the EXACT statement.
Refer to Mantel and Haenszel (1959) and Landis, Heyman, and Koch (1978).

Fisher's Exact Test

× 2 Tables
For 2 ×2 tables, Fisher's exact test is the probability of observing a table that gives at least as much evidence of association as the one actually observed, given that the null hypothesis is true. The row and column margins are assumed to be fixed. The hypergeometric probability, p, of every possible table is computed, and the p-value is defined as

{PROB} = \sum_A p
For a two-sided alternative hypothesis, A is the set of tables with p less than or equal to the probability of the observed table. A small two-sided p-value supports the alternative hypothesis of association between the row and column variables.
One-sided tests are defined in terms of the frequency of the cell in the first row and first column (the (1,1) cell). For a left-sided alternative hypothesis, A is the set of tables where the frequency in the (1,1) cell is less than or equal to that of the observed table. A small left-sided p-value supports the alternative hypothesis that the probability of an observation being in the first cell is less than expected under the null hypothesis of independent row and column variables.
Similarly, for a right-sided alternative hypothesis, A is the set of tables where the frequency in the (1,1) cell is greater than or equal to that of the observed table. A small right-sided p-value supports the alternative that the probability of an observation being in the first cell is greater than expected under the null hypothesis.
Because the (1,1) cell frequency completely determines the 2 ×2 table when the marginal row and column sums are fixed, these one-sided alternatives can be equivalently stated in terms of other cell probabilities or ratios of cell probabilities. The left-sided alternative is equivalent to an odds ratio greater than 1, where the odds ratio equals (n11 n22 / n12 n21). Additionally, the left-sided alternative is equivalent to the column 1 risk for row 1 being less than the column 1 risk for row 2, p1|1 < p1|2. Similarly, the right-sided alternative is equivalent to the column 1 risk for row 1 being greater than the column 1 risk for row 2, p1|1 > p1|2. Refer to Agresti (1996).
× C Tables  Fisher's exact test was extended to general R ×C tables by Freeman and Halton (1951), and this test is also known as the Freeman-Halton test. For R ×C tables, the two-sided p-value is defined the same as it is for 2 ×2 tables. A is the set of all tables with p less than or equal to the probability of the observed table. A small p-value supports the alternative hypothesis of association between the row and column variables. For R ×C tables, Fisher's exact test is inherently two-sided. The alternative hypothesis is defined only in terms of general, and not linear, association. Therefore, PROC FREQ does not compute right-sided or left-sided p-values for general R ×C tables.
For R ×C tables, PROC FREQ computes Fisher's exact test using the network algorithm of Mehta and Patel (1983), which provides a faster and more efficient solution than direct enumeration. See the section "Exact Statistics" for more details.

Phi Coefficient

The phi coefficient is a measure of association derived from the Pearson chi-square statistic. It has the range -1 \leq \phi \leq 1 for 2 ×2 tables. Otherwise, the range is 0 \leq \phi \leq min(\sqrt{R-1}, \sqrt{C-1})(Liebetrau 1983). The phi coefficient is computed as 
\phi = \frac{n_{11}  n_{22} - n_{12}  n_{21} }
 {\sqrt{n_{1 \cdot}  n_{2 \cdot}  n_{\cdot 1}  n_{\cdot 2}}}
  {{\rm for 2 x 2\space tables}}

\phi = \sqrt{Q_P / n}  {{\rm otherwise}}
Refer to Fleiss (1981, pp. 59 -60).

Contingency Coefficient

The contingency coefficient is a measure of association derived from the Pearson chi-square. It has the range 0 \leq P \leq \sqrt{(m - 1)/m}, where m = min(R,C) (Liebetrau 1983). The contingency coefficient is computed as
P = \sqrt{ \frac{Q_P}{Q_P + n} }
Refer to Kendall and Stuart (1979, pp. 587 -588).

Cramer's V

Cramer's V is a measure of association derived from the Pearson chi-square. It is designed so that the attainable upper bound is always 1. It has the range -1 \leq V \leq 1 for 2 ×2 tables; otherwise, the range is0 \leq V \leq 1. Cramer's V is computed as
V = \phi  {for 2 x 2\space tables}

V = \sqrt{ \frac{Q_P/n}{\min(R-1,C-1)} }  {otherwise}


uji fisher


  
       Statistik 4 Life - βeta
         
       
     
      Uji ParkSunday, January 17, 2010 4:02 PMUji Park ini dikembangkan oleh Park pada tahun 1966 (Park, 1966). Dengan data yang kita miliki sebagai ilustrasi berikut ini:


Tahap-tahap uji:
1. Langkah menginput dan mengimpor data serta menjalankan regresi.
Untuk langkah input data tidak perlu diterangkan lebih jauh karena telah dibahas pada bahasan regresi dengan eviews, anda dapat melihatnya disini >>

2. Setelah itu kita akan membuat variabel baru, katakanlah disini res2 dengan menggunakan rumus resid^2, karena pada uji heteroskedastisitas kita akan bermain dengan residual kuadrat, langkahnya dilakukan dengan mengklik tombol Genr seperti berikut ini:


lalu isikan dengan res2 = resid^2, seperti berikut:



3. Setelah itu residual tadi akan kita regresikan dengan menggunakan persamaan ln(res2)=b0 + b1X1 + b2X2 + b3X3 + e. yaitu dengan memilih menu QUICK - ESTIMATE EQUATION - kemudian isikan log(res2) c x1 x2 x3 - lalu klik OK seperti berikut ini:


4. Setelah itu output akan didapatkan seperti berikut ini:


Kita dapat melihat koefisien yang dihasilkan dengan uji Park ini yaitu:

Log(res2) = 6,19 + 0,047 X1 - 0,01 X2 - 0,45 X3
t-statistik     (2,66)     (0,86)       (-0,28)     (-0,44)
p-value        (0,015)   (0,39)        (0,78)      (0,66)

Dari output diatas dapat kita lihat bahwa koefisien masing-masing variabel independen bersifat tidak signifikan, maka dengan demikian dapat kita simpulkan bahwa tidak ada masalah heteroskedastisitas pada model.
Uji WhiteThursday, December 24, 2009 3:17 AMUji white dilakukan dengan meregresikan residual kuadrat sebagai variabel dependen dengan variabel dependen ditambah dengan kuadrat variabel independen, kemudian ditambahkan lagi dengan perkalian dua variabel independen. Prosedur pengujian dilakukan dengan hipotesis sebagai berikut:
H0 : Tidak ada      heterokedastisitasH1 : Ada      heterekodastisitasJika α = 5%, maka tolak H0 jika obs*R-square > X2 atau P-value < α.
Untuk melakukan uji white kita akan gunakan contoh data pada bahasan uji heteroskedastisitas dengan metode grafik, anda dapat melihatnya disini>>>
1. Jalankan langkah-langkah yang sama persis pada bahasan Regresi dengan Eviews pada bahasan sebelumnya (jika belum mengerti anda bisa melihatnya langkahnya disini >>)
2. Setelah didapatkan hasil analisis regresilinier, anda dapat memilih VIEW – RESIDUAL TEST – WHITE HETEROSCEDASTICITY (cross term), seperti berikut ini:


3. Setelah itu akan dikeluarkan OUTPUT sebagai berikut:


Hasil output menunjukkan nilai Obs*R-squared adalah sebesar 5,68 sedangkan nilai probabilitas (chi-square) adalah 0,68 (lebih besar daripada α = 0,05), dengan demikian kita dapat menerima hipotesis nol bahwa data tidak mengandung masalah heteroskedastisitas.
Uji Heteroskedastisitas Metode GrafikFriday, January 01, 2010 8:04 PMPengujian indikasi heteroskedastisitas dengan metode grafik/scatterplot dapat dilakukan dengan langkah sebagai berikut:

Misalkan kita memiliki data seperti berikut:


1. Jalankan regresi linier dengan SPSS, untuk langkah melakukan regresi linier dapat dijalankan dengan comand ANALYZE - REGRESSION - LINEAR,
2.  Masukkan variabel sesuai dengan jenisnya (dependen dan independen) seperti berikut:


3. Klik PLOT disamping kanan,

4. Setelah muncul kotak dialog Linear Regression Plot, masukkan pada sumbu X - predicted dependent variables atau ZPRED serta pada sumbu Y - residual atau ZRESID, lalu centang Normal Probability Plots, - CONTINUE:


5. Setelah itu Klik OK, maka akan ditampilkan output seperti berikut:


Dapat kita lihat bahwa pada model bersifat homoskedastik, tidak terdapat masalah heteroskedastisitas, dimana peningkatan nilai variabel dependen pada sumbu X diikuti dengan peningkatan residual.

Berikut ini adalah contoh scatterplot dengan indikasi adanya masalah heteroskedastisitas:


Lihat pola scatterplot berikut, peningkatan nilai error pada sumbu X diikuti dengan keragaman yang meningkat pada sumbu Y.

Regresi LogistikTuesday, December 15, 2009 10:49 PMRegresi logistik adalah bagian dari analisis regresi yang digunakan ketika variabel dependen (respon) merupakan variabel dikotomi. Variabel dikotomi biasanya hanya terdiri atas dua nilai, yang mewakili kemunculan atau tidak adanya suatu kejadian yang biasanya diberi angka 0 atau 1.

Tidak seperti regresi linier biasa, regresi logistik tidak mengasumsikan hubungan antara variabel independen dan dependen secara linier. Regresi logistik merupakan regresi non linier dimana model yang ditentukan akan mengikuti pola kurva seperti gambar di bawah ini.

Model yang digunakan pada regresi logistik adalah:

Log (P / 1 – p) = β0 + β1X1 + β2X2 + …. + βkXk

Dimana p adalah kemungkinan bahwa Y = 1, dan X1, X2, X3 adalah variabel independen, dan b adalah koefisien regresi.

Regresi logistik akan membentuk variabel prediktor/respon (log (p/(1-p)) yang merupakan kombinasi linier dari variabel independen. Nilai variabel prediktor ini kemudian ditransformasikan menjadi probabilitas dengan fungsi logit.

Regresi logistik juga menghasilkan rasio peluang (odds ratios) terkait dengan nilai setiap prediktor. Peluang (odds) dari suatu kejadian diartikan sebagai probabilitas hasil yang muncul yang dibagi dengan probabilitas suatu kejadian tidak terjadi. Secara umum, rasio peluang (odds ratios) merupakan sekumpulan peluang yang dibagi oleh peluang lainnya. Rasio peluang bagi prediktor diartikan sebagai jumlah relatif dimana peluang hasil meningkat (rasio peluang > 1) atau turun (rasio peluang < 1) ketika nilai variabel prediktor meningkat sebesar 1 unit.

Lebih jelasnya kita dapat mengikuti ilustrasi berikut ini:

Jika kita ingin mengetahui pembelian kosmetik merk tertentu oleh beberapa orang wanita dengan beberapa variabel penjelas antara lain adalah umur, tingkat pendapatan (low, medium, high), dan status (M – menikah; S untuk single). Pada data tersebut, pembelian merupakan variabel prediktor yang dijelaskan dengan angka 1 sebagai membeli dan 0 sebagai tidak membeli.

1. Dengan SPSS 17.0 data yang diinput dapat berupa:


2. Setelah data diinput, pilih Analyze – Regression – Binary logistic seperti berikut:

3. Setelah muncul kotak dialog logistic regression, masukkan variabel dependen purchase ke kolom  dependent, dan ketiga variabel independen ke dalam kolom covariates, lalu pilih button categorical untuk memasukkan variabel kategorik yaitu pendapatan dan status – klik continue:




4. Setelah itu pilih option, checklist classification plot dan Hosmer-lemeshow goodness of fit, kemudian continue:

 5. Kemudian pada method pilih enter, kemudian klik OK:


6. Output yang didapatkan adalah sebagai berikut:


Output Case Processing Summary menghilangkan variabel yang tidak diperhitungkan dalam model.


Output classification table diatas menjelaskan bahwa persentase variabel yang diprediksi sebesar 88,9 persen adalah baik, dan dari perbandingan antara kedua nilai mengindikasikan tidak terdapatnya masalah homoskedastisitas (asumsi model logit).

Pada output variables in equation signifikansi adalah 0,05 artinya model tidak signifikan dan dengan demikian terima H0.


Pada output omnibus test menyatakan bahwa hasil uji chi-square goodness of fit lebih kecil dari 0,05, ini mengindikasikan bahwa model adalah signifikan.

Hasil output pada Cox-Snell R2 dan Nagelkerke R memiliki analogi sama dengan nilai R-square pada regresi linier, menyakatan bahwa sebanyak 50,2 persen keragaman dapat dijelaskan oleh model, sedangkan sisanya diluar model.

Hasil pada output Hosmer and Lemeshow Goodness-of-Fit Test mengindikasikan bahwa kita dapat menerima H0 karena lebih dari 0,05 (1 > 0,05).




output variables in the equation menunjukkan nilai signifikansi berdasarkan Wald Statistic, jika model signifikan, maka nilai sig. adalah kurang dari 0,05.

Kolom Exp(B) menunjukkan nilai odds ratio yang dihasilkan. Nilai odds ratio yang hanya mendekati 1,0 mengindikasikan bahwa variabel independen tidak mempengaruhi variabel dependen.


Output classplot diatas menunjukkan prediksi pada regresi logistik. Sumbu X menujukkan probabilitas yang diprediksi, sedangkan sumbu Y menunjukkan jumlah kasus yang diamati.

referensi lain dengan menggunakan minitab:
Firdaus. M, Farid. M.A. 2008. Aplikasi Metode Kuantitatif Terpilih Untuk Manajemen dan Bisnis. IPB Press: Bogor.
Faktorial AnovaSaturday, December 12, 2009 3:57 AMFaktorial ANOVA menguji perbedaan mean antar kelompok data berdasarkan pada dua atau lebih variabel independen, dengan variabel dependen tunggal. Faktorial ANOVA dapat melibatkan dua atau lebih data kategorik/ordinal antar subjek atau satu data interval atau rasio.

Faktorial ANOVA digunakan ketika kita ingin mempertimbangkan efek lebih dari satu faktor pada perbedaan dalam variabel dependen. Sebuah rancangan faktorial adalah desain eksperimental di mana setiap tingkat masing-masing faktor dipasangkan atau disilangkan dengan tiap tingkat setiap faktor lainnya. Dengan kata lain setiap kombinasi dari faktor-faktor tingkat disertakan dalam desain. Desain jenis ini sering digambarkan dalam sebuah tabel matriks (misal 2 x 3, dll).

Desain faktorial memungkinkan kita untuk menentukan apakah ada interaksi antara variabel bebas atau faktor yang dipertimbangkan. Interaksi menyiratkan bahwa perbedaan dalam salah satu faktor perbedaan tergantung pada faktor lain.

Ilustrasi:

Faktorial ANOVA dapat digunakan jika kita ingin mengetahui apakah jenis kelamin (pria/wanita) dan tingkat pendapatan (tinggi/rendah) mempengaruhi keputusan pembelian makanan fastfood. Data konsumsi fastfood dinyatakan dalam frekuensi kunjungan setiap tahun. Data yang diberikan adalah sebagai berikut:

Dari ilustrasi tersebut, hipotesis yang akan kita gunakan adalah:

H01 : tidak ada perbedaan yang signifikan antara tingkat pendapatan tinggi dan rendah
H02 : tidak ada perbedaan yang signifikan antara jenis kelamin pria dan wanita
H03 : tidak terjadi efek interaksi antara jenis kelamin dan jenis pekerjaan terhadap frekuensi kunjungan

Dengan SPSS 17.0 langkah-langkahnya dapat kita lakukan sebagai berikut:

1. Input data ke dalam worksheet SPSS seperti berikut:

2. Pilih pada menubar Analyze – General Linear Model – Univariate seperti berikut:

3. Setelah muncul kotak dialog Univariate, maka pindahkan variabel yang akan diukur (frekuensi) ke dalam kotak dependent variable dan variabel sex dan income ke dalam kotak fixed factor:


4. Kemudian klik continue, pilih plots, masukkan variabel kategorik sex dan income masing-masing ke dalam kotak horizontal axis dan separate lines seperti berikut: kemudian klik add – continue,


5. Setelah itu pilih option, masukkan variabel sex, income, dan sex*income ke dalam kotak kotak displays mean for, lalu centang descriptive statistic, observed power, dan homogeneity test seperti berikut:


6. Setelah itu klik continue dan OK, maka akan ditunjukkan output berikut:

Dari output descriptive statistics dapat kita lihat nilai mean dan standard deviasi masing-masing variabel dan totalnya.

Dari output Levene’s Test of Equality kita dapat mengetahui signifikansi model adalah sebesar 0,065 (0,065 > 0,05), maka kita simpulkan bahwa keragaman berbeda signifikan dan model tidak homogen.


Dari output dependent variable: Frequency dapat kita lihat bahwa efek Sex dan Interaksi variabel Sex*Income memiliki nilai p-value (sig. > 0,05) berarti bahwa tidak ada interaksi yang signifikan antara variabel Sex dan Income dalam hubungannya terhadap frekuensi kunjungan ke gerai fastfood.

Efek yang signifikan terhadap frekuensi kunjungan hanya Income dengan nilai p-value (sig. < 0,05), ini menunjukkan bahwa tingkat pendapatan berpengaruh signifikan terhadap kunjungan ke gerai fastfood.

Sedangkan Sex tidak menunjukkan signifikansi yang mempengaruhi kunjungan dengan nilai p-value = 0,562 (0,562 > 0,05).


Plot yang didapat tidak menunjukkan adanya interaksi hubungan antara jenis kelamin (sex) dengan tingkat pendapatan (income) yang mempengaruhi kunjungan ke gerai fastfood, karena garis tidak bertemu (berinteraksi).(yoz)
Aplikasi Linear ProgrammingFriday, December 11, 2009 3:28 AMLinear programming adalah bidang ilmu yang digunakan dalam optimisasi karena beberapa alasan. Pada pembahasan sebelumnya dalam blog ini, anda telah mengetahui mengenai konsep metode transportasi yang melibatkan linear programming dan goal programming, untuk lebih jelasnya mengenai pembahasan sebelumnya bisa anda lihat disini. Adapun pembahasan kali ini akan dititik-beratkan pada contoh aplikasi linear programming pada manajemen maupun dalam optimisasi usaha.
Banyak masalah-masalah praktis dalam riset operasi dapat dinyatakan sebagai masalah pemrograman linear. Beberapa kasus khusus linear programming, seperti masalah aliran jaringan dan aliran multi-komoditas yang dianggap cukup penting untuk diteliti dengan suatu algoritma khusus untuk meraih solusi. Sejumlah algoritma untuk masalah optimisasi lain dioperasikan dengan memecahkan masalah LP sebagai sub-masalah. Secara historis, ide-ide dari pemrograman linear telah menginspirasi banyak konsep pusat teori optimisasi, seperti dualitas, dekomposisi, dan pentingnya kecembungan dan generalisasi. Demikian pula, linear programming banyak digunakan dalam ekonomi mikro dan manajemen perusahaan, seperti perencanaan, produksi, pengangkutan, teknologi dan isu-isu lainnya. Walaupun isu-isu manajemen modern yang selalu berubah, sebagian besar perusahaan ingin memaksimalkan keuntungan atau meminimalkan biaya dengan sumber daya yang terbatas. Oleh karena itu, banyak hal dapat dikategorikan menjadi masalah pemrograman linear.

Ilustrasi sederhana:
Misalkan seorang petani memiliki sebidang tanah pertanian, misalnya seluas 5 hektar, yang akan ditanam dengan gandum atau kedelai atau kombinasi dari keduanya. Petani hanya memiliki pupuk NPK (P) yang terbatas dan hanya sedikit insektisida (I) yang digunakan, maka masing-masing yang dibutuhkan dalam jumlah yang berbeda per satuan luas untuk gandum adalah (P1, I1) dan kedelai adalah (P2, I2). Misalkan harga jual gandum adalah Rp.5.000/kg, dan harga kedelai adalah Rp.7.000/kg. Jika ladang yang ditanami gandum dan kedelai kita nyatakan dengan X1 dan X2 berturut-turut, maka jumlah yang optimal untuk ditanami gandum dengan kedelai dapat dinyatakan sebagai masalah pemrograman linear (LP) sebagai berikut:
Diketahui:
Luas lahan   : 5 Ha
Jumlah pupuk (terbatas) : P
Jumlah insektisida (terbatas) : I
Harga Jual gandum   : Rp. 5.000/kg
Harga Jual Kedelai  : Rp. 7.000/kg
Ladang tanam gandum  : X1
Ladang tanam kedelai  : X2

Maka dengan demikian, perumusan algoritmanya menjadi:
5000(X1) + 7000(X2)  (memaksimalkan keuntungan, keuntungan merupakan fungsi sasaran)
X1 + X2 < 5 Ha (keterbatasan lahan)
P1X1 + P2X2 < P (keterbatasan pupuk terhadap lahan)
I1X1 + I2X2 < I (keterbatasan insektisida terhadap lahan)
X1 > 0, X2 > 0 (area yang tidak dapat ditanami)

Maka bentuk matriksnya dapat disusun sebagai berikut:
Memaksimalkan keuntungan >> Subjek untuk



Ilustrasi dalam Manajemen:

Misalkan seorang manajer produksi bertanggung jawab untuk penjadwalan bulanan produksi suatu produk tertentu untuk perencanaan selama dua belas bulan. Untuk tujuan perencanaan, manajer diberi informasi berikut:
1. Total permintaan untuk produk dalam bulan j adalah dj, untuk j = 1, 2,. . ., 12. Ini dapat berupa nilai-nilai yang ditargetkan atau didasarkan pada perkiraan.
2. Biaya memproduksi tiap unit produk dalam bulan j adalah cj (dolar), untuk j = 1, 2,. . ., 12. Tidak ada biaya setup / biaya tetap untuk produksi.
3. Biaya persediaan per unit untuk bulan j adalah hj (dolar), untuk j = 1, 2,. . ., 12. Ini dikeluarkan pada setiap akhir bulan.
4. Kapasitas produksi untuk bulan j adalah mj, untuk j = 1, 2,. . ., 12.
Tugas manajer adalah untuk menghasilkan jadwal produksi yang meminimalkan total produksi dan biaya persediaan selama 12 bulan perencanaan produksi.
Untuk memfasilitasi perumusan pemrograman linear (LP), manajer memutuskan untuk membuat penyederhanaan asumsi sebagai berikut:
1. Tidak ada persediaan pada awal bulan pertama.
2. Unit produksi dijadwalkan dalam bulan j, dan segera dipersiapkan untuk pengiriman pada awal bulan itu. Ini berarti berlaku bahwa tingkat produksi terbatas.
3. Kekurangan produk tidak dimungkinkan terjadi pada akhir setiap bulan.
Untuk memahami hal-hal tersebut secara lebih baik, mari kita perhatikan bulan pertama. Misalkan, untuk bulan itu, yang direncanakan sama dengan tingkat produksi 100 unit dan permintaan, d1, sama dengan 60 unit. Kemudian, sejak awal persediaan adalah 0 (Asumsi No. 1), tingkat persediaan akhir untuk bulan pertama akan menjadi 0 + 100 – 60 = 40 unit. Perhatikan bahwa semua dari 100 unit produk akan segera tersedia untuk pengiriman (Asumsi No. 2); dan terhadap permintaan d1 = 60, kita harus menghasilkan tidak kurang dari 60 unit pada bulan pertama, untuk menghindari kekurangan (Asumsi No. 3). Misalkan bahwa biaya produksi pada bulan 1 (c1) = 15 dan Biaya persediaan (h1) = 3. Kemudian, total biaya untuk bulan pertama dapat dihitung sebagai:
15 × 100 + 3 × 40 = 1.380 dolar.
Pada awal bulan kedua, akan ada 40 unit produk dalam persediaan (karena permintaan pada bulan pertama adalah 60, sedangkan yang diproduksi adalah 100), dan yang sesuai persediaan akhir dapat dihitung sama, berdasarkan inventaris awal, tingkat produksi yang telah dijadwalkan, dan total permintaan untuk bulan itu. Skema yang sama kemudian diulang sampai akhir seluruh perencanaan selama 12 bulan.

Setelah dihasilkan total biaya hingga bulan ke-12, maka kita dapat menentukan formulasi linear programming untuk masalah ini:
1. Variabel keputusan:
Manajer bertugas untuk menetapkan tingkat produksi untuk setiap bulan. Oleh karena itu, telah disusun 12 variabel keputusan (berdasarkan jangka waktu produksi selama 12 bulan):
Xj = tingkat produksi pada bulan j, j = 1, 2,. . ., 12.

2. Fungsi Sasaran
Mari kita lihat kembali pada bulan pertama. Dari pembahasan di atas, kita mendapatkan:
Biaya produksi adalah sama dengan biaya produksi dikali dengan tingkat produksi atau c1×1.
Biaya persediaan adalah sama dengan h1 (x1 – d1), dengan asumsi bahwa tingkat persediaan akhir (x1 – d1) masih ada, atau tidak negatif.
Oleh karena itu, total biaya untuk bulan pertama sama dengan c1×1 + h1 (x1 – d1)

Untuk Bulan kedua dapat kita nyatakan sebagai berikut:
Biaya produksi adalah sama dengan c2×2.
Biaya persediaan akhir sama dengan h2 (x1 – x2 – d1 + d2), dengan asumsi bahwa tingkat persediaan akhir, x1 – d1 + x2 – d2, adalah masih ada. Berikut ini dari fakta bahwa tingkat persediaan awal bulan ini adalah x1 – d1, tingkat produksi untuk bulan ini adalah x2, dan permintaan untuk bulan ini adalah d2.
Oleh karena itu, total biaya untuk bulan kedua sama dengan c2×2 + h2 (x1 – d1 + x2 – d2).
Maka Total biaya produksi untuk seluruh perencanaan selama 12 bulan adalah:

Karena tujuan kita adalah untuk meminimalkan total biaya produksi dan biaya persediaan, maka fungsi sasaran dapat dinyatakan sebagai:


3. Fungsi Kendala
Karena kapasitas produksi untuk bulan mj adalah j, maka kita memerlukan:
Tingkat produksi untuk bulan j < kapasitas produksi untuk bulan j (xj < mj)
untuk j = 1, 2,. . ., 12; dan karena kekurangan tidak diperbolehkan (Asumsi No. 3), kita memerlukan:
Tingkat produksi untuk awal bulan k – total permintaan awal bulan k > 0, atau dengan notasi:

untuk j = 1, 2,. . ., 12. Telah menghasilkan sebanya 24 fungsi kendala. Tentu saja, karenanya tingkat produksi xj tidak boleh negatif.

Maka dengan demikian dapat disimpulkan bahwa fungsi Linear Programming untuk manajemen selama 12 bulan adalah:
Variabel Keputusan + Fungsi Sasaran * Fungsi Kendala
Atau dengan formulasi:

subjek untuk:
xj <  mj, untuk j = 1,2,3,…..12.

, untuk j = 1,2,3,…..12.
xj > 0, untuk j = 1,2,3,….12.

Dengan demikian telah kita dapatkan fungsi linear programming dengan 12 variabel keputusan, 24 fungsi kendala, dan 12 fungsi kendala non-negatif. Dalam pelaksanaannya, kita perlu mengganti cj, hj, dj, dan mj dengan nilai-nilai numerik.
Pada pembahasan berikutnya, akan dibahas pengaplikasian linear programming pada kasus investasi dengan bantuan perangkat lunak LINDO (linear interactive discrete optimization).(yoz)

 Uji Multikolinearitas dan AutokorelasiThursday, December 10, 2009 2:38 AMA. Multikolinearitas
Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independen dalam model regresi. Multikolinearitas biasanya terjadi ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model regresi. Oleh karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independen.
Indikasi terdapat masalah multikolinearitas dapat kita lihat dari kasus-kasus sebagai berikut:
1. Nilai R2 yang tinggi (signifikan), namun nilai standar error dan tingkat signifikansi masing-masing variabel sangat rendah.
2. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati.
3. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan nilai negatif.
Memang belum ada kriteria yang jelas dalam mendeteksi masalah multikolinearitas dalam model regresi linier. Selain itu hubungan korelasi yang tinggi belum tentu berimplikasi terhadap masalah multikolinearitas. Tetapi kita dapat melihat indikasi multikolinearitas dengan tolerance value (TOL), eigenvalue, dan yang paling umum digunakan  adalah varians inflation factor (VIF).
Hingga saat ini tidak ada kriteria formal untuk menentukan batas terendah dari nilai toleransi atau VIF. Beberapa ahli berpendapat bahwa nilai toleransi kurang dari 1 atau VIF lebih besar dari 10 menunjukkan multikolinearitas signifikan, sementara itu para ahli lainnya menegaskan bahwa besarnya R2 model dianggap mengindikasikan adanya multikolinearitas. Klein (1962) menunjukkan bahwa, jika VIF lebih besar dari 1/(1 – R2) atau nilai toleransi kurang dari (1 – R2), maka multikolinearitas dapat dianggap signifikan secara statistik.


B. Autokorelasi
Uji autokorelasi digunakan untuk melihat apakah ada hubungan linier antara error serangkaian observasi yang diurutkan menurut waktu (data time series). Uji autokorelasi perlu dilakukan apabila data yang dianalisis merupakan data time series (Gujarati, 1993).

dimana:
d = nilai Durbin Watson
Σei = jumlah kuadrat sisa
Nilai Durbin Watson kemudian dibandingkan dengan nilai d-tabel. Hasil perbandingan akan menghasilkan kesimpulan seperti kriteria sebagai berikut:
1. Jika d < dl, berarti terdapat autokorelasi positif
2. Jika d > (4 – dl), berarti terdapat autokorelasi negatif
3. Jika du < d < (4 – dl), berarti tidak terdapat autokorelasi
4. Jika dl < d < du atau (4 – du), berarti tidak dapat disimpulkan
Berikut ini adalah daerah pengujian durbin watson:





Ilustrasi Kasus:

Oke, kemudian kita lihat contoh berikut (pengerjaannya sama dengan langkah pengerjaan regresi linier berganda,  untuk yang belum mengerti secara penuh regresi linier berganda bisa menyimaknya disini >>:
Seandainya kita memiliki variabel dependen (Y) tingkat inflasi di Amerika Serikat, dengan variabel independen yang diamati adalah kurs Yen terhadap US$ (X1), kurs Rupiah terhadap US$ (X2), dan kurs US$ terhadap Poundsterling (X3), maka kita akan memilki model sebagai berikut:
Y = β0 + β1X1 + β2X2 + β3X3 + ε
Berikut adalah data-datanya selama 10 tahun dari tahun 1979 – 1988:

Maka dengan Minitab 14, langkah-langkah pengerjaannya adalah sebagai berikut:
1. Buka Minitab, kemudian copy – paste datanya ke dalam worksheet minitab seperti berikut ini:

2. Kemudian langkah kedua, dari menubar pilih Stat – Regression – Regression seperti berikut:






3. Setelah muncul kotak dialog Regression, masukkan variabel Y ke kotak Response, dan masukkan variabel X1, X2, dan X3 ke kotak Predictors. Proses ini dilakukan dengan memblok variabel dan pilih select. Setelah itu pilih Option (kiri bawah), lalu centang durbin Watson statistic, varians inflation factor, dan predicter R-square. Durbin Watson statistic berguna untuk melihat indikasi autokorelasi, sedangkan nilai varians inflation factor (VIF) adalah untuk melihat adanya indikasi multikolinearitas pada model, kemudian klik OK – OK,

4. Kemudian outputnya seperti berikut:

Persamaan Regresi yang dihasilkan adalah:
Y = -26,3 + 0,0086 X1 + 0,0843 X2 + 4,26 X3
Dari persamaan tersebut dapat dikemukakan bahwa semua variabel berpengaruh positif, artinya jika terjadi kenaikan inflasi di Amerika Serikat, maka akan diikuti oleh ketiga variabel penjelas/independen. Dengan koefisien korelasi X1 dan X2 yang sangat kecil, maka pengaruhnya tidak signifikan. Karena jumlah sampel yang baik minimal adalah 30, serta pemilihan variabel secara dilakukan secara acak, karena untuk kebutuhan ilustrasi saja.
Nilai VIF pada output menunjukkan keberadaan multikolinearitas tidak signifikan, artinya tidak ada indikasi multikolinearitas dalam model. Ini ditunjukkan dengan nilai VIF berturut-turut untuk X1, X2, dan X3 adalah 4,7, 3,9, dan 1,7.
Nilai signifikansi pada output Analysis Of Variance menunjukkan model regresi yang digunakan kurang baik, diindikasikan dengan nilai F-statistik yang kecil (3,44%) dan nilai p-value 0,092 > 0,05.
Nilai Durbin Watson mengindikasikan tidak adanya autokorelasi yang terjadi yang diindikasikan dengan nilai 2,06. Nilai tersebut terletak pada daerah tengah rentang pengujian autokorelasi Durbin Watson.
Untuk masalah heteroskedastisitas, akan dibahas pada bahasan lain Statistik 4 Life. (yoz)
Uji Mann-Whitney UFriday, December 11, 2009 3:44 AMUji Mann-Whitney/Wilcoxon merupakan alternatif bagi uji-t. Uji Mann Whitney/Wilcoxon  merupakan uji non-parametrik yang digunakan untuk membandingkan dua mean populasi yang berasal dari populasi yang sama. Uji Mann-Whitney juga digunakan untuk menguji apakah dua mean populasi sama atau tidak.
Uji Mann-Whitney biasanya digunakan dalam berbagai bidang, terutama lebih sering dalam Psikologi, medik/perawatan dan bisnis. Misalnya, pada psikologi, uji Mann-Whitney digunakan untuk membandingkan sikap dan perilaku, dan lain-lain. Dalam bidang pengobatan, uji Mann-Whitney digunakan untuk mengetahui efek obat apakah sama atau tidak, selain itu juga bisa digunakan untuk menguji apakah obat tertentu dapat menyembuhkan penyakit atau tidak. Dalam Bisnis, uji Mann-Whitney dapat digunakan untuk mengetahui preferensi orang-orang yang berbeda.
Asumsi yang berlaku dalam uji Mann-Whitney adalah:
1.  Uji Mann-Whitney mengasumsikan bahwa sampel yang berasal dari populasi adalah acak,
2.  Pada uji Mann-Whitney sampel bersifat independen (berdiri sendiri),
3.  Skala pengukuran yang digunakan adalah ordinal.

Hipotesis yang digunakan adalah:
H0: tidak ada perbedaan distribusi skor untuk populasi yang diwakilkan oleh kelompok eksperimen dan control.
Ha: Skor untuk kelompok eksperimen secara statistik lebih besar daripada skor populasi kelompok control.

Untuk menghitung nilai statistik uji Mann-Whitney, rumus yang digunakan adalah sebagai berikut:


Dimana:
U  = Nilai uji Mann-Whitney
N1= sampel 1
N2= sampel 2
Ri = Ranking ukuran sampel
Ilustrasi Kasus:
Profesor Kalkulus ingin melihat apakah ujian kalkulus pada pagi hari maupun siang hari berpengaruh terhadap skor hasil yang didapatkan oleh para mahasiswanya. Oleh karena itu ia memilih 19 orang mahasiswa terbaiknya untuk melaksanakan ujian pada pagi hari maupun siang hari. Kelompok pertama terdiri dari 10 orang yang melaksanakan ujian pada pagi hari, dan sisanya 9 orang melaksanakan ujian pada siang hari. Skor yang dihasilkan adalah sebagai berikut:


1. Dengan SPSS 17.0, pertama-tama kita input datanya sebagai berikut: *perhatian SPSS tidak akan bisa membaca variabel kategorik yang dlam kasus ini dibaca string (pagi dan siang), oleh karena itu pagi dan siang akan diganti dengan skor 0 untuk pagi, dan 1 untuk malam.


2. Kemudian di menubar pilih ANALYZE – NON-PARAMETRIC TEST – 2 INDEPENDENT SAMPLES seperti berikut ini:


3. Setelah muncul kotak dialog Two Independent Samples Test, masukkan variabel independen SKOR ke dalam kotak test variable list, dan masukkan variabel dependen WAKTU UJIAN ke kotak grouping variables, kemudian klik DEFINE RANGE,


4. Setelah muncul kotak dialog Two Independent Samples: Define.., anda dapat memasukkan pada group 1 angka 1 dan pada group 2 angka 2, karena sampel terdiri atas dua kelompok, seperti berikut - CONTINUE:


5. Jangan lupa untuk mencheklist Mann-Whitney di bagian bawah kiri, kemudian klik OK, maka akan ditampilkan output berikut:


6. Interpretasi:
Dari output Rank, dapat kita lihat bahwa nilai mean untuk mahasiswa yang ujian pada pagi hari (0) lebih besar daripada nilai mean mahasiswa yang ujian pada siang hari (11,90 > 7,89).
Dari Nilai uji Mann-Whitney U, dapat kita lihat pada output “Test Statisticb” dimana nilai statistik uji Z yang kecil yaitu -1,553 dan nilai sig.2-tailed adalah 0,120 > 0,05. Karena itu hasil uji tidak signifikan secara statistik, dengan demikian kita dapat menerima Hipotesis null dimana tidak ada perbedaan distribusi skor pada ujian pagi hari maupun siang hari.(yoz)

 Regresi StepwiseFriday, December 11, 2009 3:51 AMModel regresi terbaik terkadang didapatkan dari beberapa tahap pemilihan. Daftar sejumlah variabel penjelas tersedia dan dari itu dicari variabel mana yang seharusnya dimasukkan ke dalam model. Variabel penjelas terbaik akan digunakan pertama kali, dan kemudian yang kedua, dan seterusnya. Prosedur ini kita kenal dengan Regresi Stepwise.

Regresi stepwise melibatkan dua jenis proses yaitu: forward selection dan backward elimination. Teknik ini dilakukan melalui beberapa tahapan. Pada masing-masing tahapan, kita akan memutuskan variabel mana yang merupakan prediktor terbaik untuk dimasukkan ke dalam model. Variabel ditentukan berdasarkan uji-F, variabel ditambahkan ke dalam model selama nilai p-valuenya kurang dari nilai kritik α (biasanya 0,15). Kemudian variabel dengan nilai p-value lebih dari nilai kritik α akan dihilangkan. Proses ini dilakukan terus menerus hingga tidak ada lagi variabel yang memenuhi kriteria untuk ditambahkan atau dihilangkan.

Model dalam regresi Stepwise adalah:

Y = β0 + β1X1 + β2X2 + β3X3 + …. + βnXn

Sedangkan Hipotesis yang digunakan dalam Regresi Stepwise adalah:

H0 : β1, β2, β3 = 0

Dengan hipotesis alternatif adalah:

Ha : β1, β2, β3 ≠ 0

Ilustrasi:

Berikut ini adalah data gaji manajer pada 10 perusahaan besar, dengan regresi stepwise kita dapat memilih variabel mana saja dari daftar berikut yang signifikan dalam mempengaruhi besarnya gaji para manajer tersebut:


dimana:

Y = gaji manajer (dalam logaritma natural = ln) *lihat bab normalisasi data dengan transformasi

X1 = masa kerja (tahun)

X2 = masa pendidikan (tahun)

X3 = bonus (1 jika ada, dan 0 jika tidak ada)

X4 = Jumlah karyawan yang diawasi (orang)

X5 = Aset perusahaan (dalam logaritma natural = ln) *lihat bab normalisasi data dengan transformasi

X6 = dewan direksi (1 jika ada, dan 0 jika tidak ada)

X7 = umur (tahun)

X8 = keuntungan perusahaan (dalam logaritma natural = ln) *lihat bab normalisasi data dengan transformasi

X9 = tanggung jawab internasional (1 jika ada, dan 0 jika tidak)

X10 = total penjualan perusahaan 12 bulan terakhir (dalam milyar)

Hipotesis:

H0 = H0 : β1, β2, β3 = 0

Ha : β1, β2, β3 ≠ 0

Langkah pengerjaan dengan SPSS adalah dengan memilih Analyze – Regression – Linear, kemudian masukkan variabel dependen maupun independennya.

 Uji Exact FisherThursday, December 10, 2009 3:47 PMUji exact Fisher digunakan ketika Anda memiliki dua variabel nominal. Biasanya data yang dimiliki meliputi 2 baris dan 2 kolom, sama halnya dengan contoh pada uji pearson chi-square yang telah dibahas. Fisher’s exact tes ini lebih akurat daripada uji chi-kuadrat atau G-test untuk data-data berjumlah sedikit. Walaupun uji ini biasanya digunakan pada tabel sebanyak 2 x 2, namun kita dapat melakukan Uji exact Fisher dengan jumlah tabel yang lebih besar.

Penyusunan Hipotesis nol pada Uji exact Fisher adalah sebagai berikut:

H0 : proporsi relatif dari satu variabel tidak terkait dengan variabel kedua.

Sebagai contoh, jika kita memperkirakan jumlah tikus jantan dan betina di dua rumah, maka Hipotesis nol akan menjadi.

H0: proporsi tikus jantan dan betina di kedua rumah adalah sama.

Contoh kasus:

Jika kita ingin mengukur proporsi jumlah pengunjung laki-laki dan perempuan di empat buah salon di kawasan Blok M setiap harinya. Data pengunjung yang diberikan adalah sebagai berikut:




Hipotesis Nol: Proporsi pengunjung di keempat salon tersebut adalah sama

Dengan SPSS 17.0, maka dapat dilakukan langkah sebagai berikut:

1. Masukkan data tersebut ke dalam worksheet SPSS, perlu diperhatikan bahwa data yang kita input akan berupa baris, kolom, dan yang menyatakan jumlah pengunjung seperti berikut ini:


Dapat kita lihat cara memasukkan data ke dalam worksheet SPSS dimana pada tabel PERHITUNGAN dapat dilihat bahwa pada KOLOM 1 dan BARIS 1 adalah jumlah pengunjung laki-laki pada salon Tessy, pada KOLOM 3 BARIS 2 adalah jumlah pengunjung perempuan pada salon Tintje, dan seterusnya. inget lagunya project pop euy,,jangan ganggu banci..!!!! :p

2. Langkah selanjutnya sama dengan pengujian Pearson chi square, dapat dilihat di bahasan lain blog ini disini >>

3. Output yang didapatkan kemudian adalah sebagai berikut:



4. Interpretasi:

Dari output yang didapat hasil point probabilitynya adalah 0,007, dengan demikian hipotesis nol dapat ditolak, artinya terdapat perbedaan proporsi yang signifikan pada jumlah pengunjung laki-laki dan perempuan pada keempat salon.(yoz)
Uji Q CochranThursday, December 10, 2009 3:51 PMUji Q Cochran pada suatu penelitian hanya dinyatakan dengan salah satu dari dua nilai, secara sembarang dapat dinyatakan dengan nilai 1 sebagai “sukses” dan nilai 0 sebagai “gagal”. Reaksi yang lain dapat berupa nilai 1 sebagai “ya” ataupun nilai 0 sebagai “tidak”.

Contoh:
jika anda menanyakan kepada 10 orang untuk diminta memilih dari tiga wanita, siapa yang ingin mereka pacari; apakah pamella anderson, paris hilton, atau megan fox. Jika orang pertama memilih paris hilton karena dia kaya, maka anda akan memberikan nilai 1 untuk paris hilton dan nilai 0 untuk pamella ataupun megan fox, dan seterusnya pada orang yang lain. contoh penggunaannya pada SPSS dapat dilihat di bawah:

Uji yang dikenal sebagai Q cochran test ini meliputi langkah-langkah sebagai berikut:

1. Menetapkan asumsi-asumsi
Data untuk analisis terdiri atas reaksi-reaksi dari r buah blok terhadap c buah perlakuan yang diterapkan secara independen.

Reaksi-reaksi itu dinyatakan dengan 1 untuk “sukses” atau 0 untuk “gagal”. Hasil-hasil pengamatan ini bisa diperagakan dalam sebuah tabel kotingensi seperti Tabel 4 dengan Xij yang menyatakan 0 atau 1.

Tabel Kontingensi untuk data pada uji Q Cochran



Blok-blok yang ditampilkan merupakan blok-blok yang dipilih secara acak dari suatu populasi yang terdiri atas semua blok yang mungkin.

2. Menentukan hipotesis-hipotesis

H0 : Semua perlakuan yang diuji mempunyai proporsi jawaban ya yang sama.
H1 : Tidak semua perlakuan mempunyai proporsi jawaban ya yang sama.

3. Menentukan Taraf Nyata (α)
4. Menghitung dengan rumus statistik uji

Berdasarkan Tabel 4, maka statistik uji untuk Uji Q Cochran adalah:


Uji Q Cochran memperlihatkan bahwa dengan meningkatnya r maka distribusi Q mendekati distribusi Khi-kuadrat dengan derajat bebas c – 1, maka nilai kritis untuk Uji Q Cochran dapat diperoleh dengan menggunakan Tabel nilai-nilai Khi Kuadrat untuk derajat bebas c – 1 ( χ2 tabel = χ2 1-α;c-1).

Tolak H0 , jika Q lebih besar dari atau sama dengan χ2 1-α;c-1.

Aplikasi Q Cochran test dengan SPSS untuk contoh di atas adalah sebagai berikut:

1. Buka SPSS, input data seperti di bawah ini:


2. Pilih Analyze – Non Parametric Test – K-related samples, seperti gambar berikut:


3. Maka akan muncul kotak dialog kemudian blok semua variabel, klik panah disamping sehingga variabel pindah ke box sebelah kanan. Setelah itu pilih Cochran’s Q


4. Kemudian pilih Exact, sehingga muncul kotak dialog seperti di bawah, dan checklist exact kembali – klik Continue – OK


5.  Maka output yang dihasilkan adalah:



6. Interpretasi

Dari hasil output SPSS uji Q Cochran diatas dapat dinyatakan bahwa uji yang dilakukan  signifikan secara statistik karena nilai Cochran Q lebih kecil daripada nilai χ (2) (3,8 < 5,991) - lihat pada tabel chi-square - pada nilai kritik 0,05. Dengan demikian terima hipotesis nol yang mengindikasikan bahwa semua semua atribut yang diuji memiliki proporsi jawaban ya yang sama.

Uji cochran akan dilakukan terus menerus hingga didapatkan nilai  χhitung < χtabel, jika belum maka pengujian dilakukan terus-menerus dengan menghilangkan atribut yang memiliki jawaban “ya” paling sedikit.(yoz)
Uji One Way AnovaWednesday, December 09, 2009 7:31 PMANOVA merupakan lanjutan dari uji-t independen dimana kita memiliki dua kelompok percobaan atau lebih. ANOVA biasa digunakan untuk membandingkan mean dari dua kelompok sampel independen (bebas). Uji ANOVA ini juga biasa disebut sebagai One Way Analysis of Variance.

Asumsi yang digunakan adalah subjek diambil secara acak menjadi satu kelompok n. Distribusi mean berdasarkan kelompok normal dengan keragaman yang sama. Ukuran sampel antara masing-masing kelompok sampel tidak harus sama, tetapi perbedaan ukuran kelompok sampel yang besar dapat mempengaruhi hasil uji perbandingan keragaman.

Hipotesis yang digunakan adalah:

H0: µ1 = µ2 … = µk (mean dari semua kelompok sama)

Ha: µi <> µj (terdapat mean dari dua atau lebih kelompok tidak sama)

Statistik uji-F yang digunakan dalam One Way ANOVA dihitung dengan rumus (k-1), uji F dilakukan dengan membandingkan nilai Fhitung (hasil output) dengan nilai Ftabel. Sedangkan derajat bebas yang digunakan dihitung dengan rumus (n-k), dimana k adalah jumlah kelompok sampel, dan n adalah jumlah sampel. p-value rendah untuk uji ini mengindikasikan penolakan terhadap hipotesis nol, dengan kata lain terdapat bukti bahwa setidaknya satu pasangan mean tidak sama.

Sebaran perbandingan grafis memungkinkan kita melihat distribusi kelompok. Terdapat beberapa pilihan tersedia pada grafik perbandingan yang memungkinkan kita menjelaskan kelompok. Termasuk box plot, mean, median, dan error bar.

Contoh Kasus.

Evaluasi pada metode pengajaran oleh pengawas untuk anak-anak sekolah Paket C adalah sebagai berikut:


Sebelum diinput ke dalam SPSS susunan data harus dirubah dahulu karena data diatas berbentuk matriks, untuk yang datanya tidak dalam bentuk matriks tabel, tidak perlu dirubah. Tabelnya adalah seperti tabel berikut:


Data ini kemudian dapat dimasukkan ke dalam worksheet SPSS agar dapat dilakukan analisis.

Hipotesis yang digunakan adalah:

H0 : µ1 = µ2 = µ3 = µ4 = µ5 (mean dari masing-masing kelompok metode adalah sama)

H1: µ1 <> µ2 <> µ3 <> µ4 <> µ5 (terdapat mean dari dua atau lebih kelompok metode tidak sama)

Langkah-langkah pengujian One Way ANOVA dengan software SPSS adalah sebagai berikut:

1. Input data ke dalam worksheet SPSS, tampilannya akan seperti berikut ini:
Data view:


Sedangkan Variabel view:


2. Kemudian jalankan analisis dengan memilih ANALYZE – COMPARE MEANS – ONE WAY ANOVA, seperti berikut ini:


3. Setelah muncul kotak dialog, maka pindahkan variabel metode ke DEPENDEN LIST, dan variabel waktu ke FACTOR.


4. Setelah variabel dependen dimasukkan pilih OPTION, kemudian checklist Descriptive dan Homogeneity-of-Variance box, seperti gambar berikut kemudian klik continue.


5. Setelah itu pilih post Hoc Test, untuk melihat kelompok mana aja seh yang signifikan (satu persatu). Anda bisa memilih Post Hoc Test - Tukey, lalu continue – OK.


6. Setelah itu maka akan muncul output berupa seperti berikut ini:


7. Sedangkan Output Post Hoc Test akan berupa tabel MULTIPLE COMPARRISON seperti berikut ini:



8. Interpretasi:

Hasil uji Homogeneity-of-Variance box menunjukkan nilai sig. (p-value) sebesar 0,848, ini mengindikasikan bahwa kita gagal menolak H0, berarti tidak cukup bukti untuk menyatakan bahwa mean dari dua atau lebih kelompok metode tidak sama.

Hasil uji one way ANOVA yang telah dilakukan mengindikasikan bahwa nilai uji-F signifikan pada kelompok uji, ini ditunjukkan oleh nilai Fhitung sebesar 11,6 yang lebih besar daripada F(3,9) sebesar 3,86 (Fhitung > Ftabel), diperkuat dengan nilai p = 0.003 lebih kecil daripada nilai kritik α=0,05.

Tukey post hoc test untuk multiple comparisons mengindikasikan bahwa hanya kelompok 4 yang memiliki nilai sig. (F statistik) yang signifikan secara statistik. Hasil ini mengindikasikan bahwa perbedaan rata-rata antara metode waktu belajar 1, 2 dan 3 secara statistik tidak signifikan dan meannya secara signifikan berbeda daripada mean metode 4 yang signifikan secara statistik. (yoz)

Make money internet surveysUji Kolmogorov - SmirnovWednesday, December 09, 2009 7:36 PMUji Kolmogorov-Smirnov (Chakravart, Laha, dan Roy, 1967) biasa digunakan untuk memutuskan jika sampel berasal dari populasi dengan distribusi spesifik/tertentu.
Uji Kolmogorov-Smirnov digunakan untuk menguji ‘goodness of fit‘ antar distribusi sampel dan distribusi lainnya, Uji ini membandingkan serangkaian data pada sampel terhadap distribusi normal serangkaian nilai dengan mean dan standar deviasi yang sama. Singkatnya uji ini dilakukan untuk mengetahui kenormalan distribusi beberapa data. Uji Kolmogorov-Smirnov merupakan uji yang lebih kuat daripada uji chi-square ketika asumsi-asumsinya terpenuhi. Uji Kolmogorov-Smirnov juga tidak memerlukan asumsi bahwa populasi terdistribusi secara normal.

Hipotesis pada uji Kolmogorov-Smirnov adalah sebagai berikut:

H0 : data mengikuti distribusi yang ditetapkan
Ha : data tidak mengikuti distribusi yang ditetapkan

Keunggulan Uji Kolmogorov-Smirnov dibanding Uji Chi Square:

1. CS memerlukan data yang terkelompokkan, KS tidak                                        memerlukannya.
2. CS tidak bisa untuk sampel kecil, sementara KS bisa.
3. Oleh karena data Chi Square adalah bersifat kategorik. Maka ada data      yang terbuang maknanya.
4. KS lebih fleksibel dibanding CS.

Ilustrasi:

Jika kita ingin melihat apakah distribusi data harga kakao pasar spot Makassar dengan bursa berjangka NYBOT menyebar normal. Data yang diberikan adalah dalam US$/ton sebagai berikut:



Uji Kolmogorov-Smirnov terhadap kenormalan data dengan SPSS 17.0 adalah sebagai berikut:

1. Setelah data dimasukkan ke dalam worksheet SPSS, Pilih Analyze – Non Parametric test – 1 sample K-S, seperti berikut:


2. Masukkan sampel yang akan diuji ke dalam box text variable list (satu sampel atau semua sampel), kemudian pada Test Distribution pilih Normal. Kemudian klik OK:


3. Output:



4. Interpretasi:

Nilai Most Extreme Differences Absolute diatas merupakan nilai statistik D pada uji K-S, nilai D pada uji terhadap masing-masing variabel diatas adalah 0,160 dan 0,223, artinya (p>0,05), maka cukup bukti untuk menerima H0, dimana data terdistribusi secara normal.

Nilai Z pada uji ini juga dapat dilihat dan paling sering digunakan sebagai indikator, dimana nilainya berturut-turut untuk Makassar dan NYBOT adalah 0,699 dan 0,974, berarti p>0,05, maka H0 dapat diterima bahwa data terdistribusi secara normal.(yoz)

Make money internet surveys
Uji Kruskal WallisWednesday, December 09, 2009 7:43 PMKruskal-Wallis test dikembangkan oleh Kruskal dan Wallis. Uji Kruskal-Wallis adalah uji nonparametrik yang digunakan untuk membandingkan tiga atau lebih kelompok data sampel. Uji Kruskal-Wallis digunakan ketika asumsi ANOVA tidak terpenuhi. ANOVA adalah teknik analisis data statistik yang digunakan ketika kelompok-kelompok variabel bebas lebih dari dua. Pada ANOVA, kita asumsikan bahwa distribusi dari masing-masing kelompok harus terdistribusi secara normal. Dalam uji Kruskal-Wallis, tidak diperlukan asumsi tersebut, sehingga uji Kruskal-Wallis adalah uji distribusi bebas. Jika asumsi normalitas terpenuhi, maka uji Kruskal-Wallis tidak sekuat ANOVA. Penyusunan hipotesis dalam uji Kruskal Wallis adalah sebagai berikut:

H0 : sampel berasal dari populasi yang sama (µ1 = µ2 = … = µk)

Ha : sampel berasal dari populasi yang berbeda (µi = µj)

Uji Kruskal Wallis harus memenuhi asumsi berikut ini:

- Sampel ditarik dari populasi secara acak
- Kasus masing-masing kelompok independen
- Skala pengukuran yang digunakan biasanya ordinal
- Rumus umum yang digunakan pada uji kruskal wallis adalah :



Statistik uji Kruskal Wallis menggunakan nilai distribusi Chi-kuadrat dengan derajat bebas adalah k-1 dengan jumlah sample harus lebih dari 5. Jika nilai uji Kruskal Wallis lebih kecil daripada nilai chi-kuadrat tabel, maka hipotesis null diterima, berarti sampel berasal dari populasi yang sama, demikian pula sebaliknya.

Ilustrasi:

Berikut ini adalah hasil survey tingkat kepentingan terhadap 3 atribut yang dinotasikan dengan 1 adalah “terdapat banyak tenan-tenan terkenal”, 2 untuk “kelengkapan menu di foodcourt”, dan 3 untuk “frekuensi hiburan” pada sebuah Mall di kota X dimana pertanyaan terhadap ketiga atribut diambil secara acak. Jumlah responden sebanyak 30 orang dibagi ke dalam 3 kelompok. Setiap kelompok ditanyakan tingkat kepentingan terhadap masing-masing dari 3 atribut. Jawaban responden diidentifikasikan dengan skala likert, dimulai dari “1” untuk sangat penting, dan “5” untuk tidak penting.
Data yang diberikan adalah sebagai berikut:



Dengan SPSS 17.0 langkah-langkahnya adalah sebagai berikut:

1. Input data seperti berikut:



2. Kemudian pada menubar pilih Analyze – Non Parametric Test – K-independent samples, seperti berikut:


3. Kemudian akan muncul kotak dialog, checklist kruskal wallis, kemudian masukkan variabel skor responden ke test variable list, dan atribut ke grouping variables, lalu klik define variable dan isikan dengan angka minimum atribut yaitu 1 dan maximum yaitu 3, klik continue seperti berikut:




4. Kemudian pilih option dan checklist beberapa indikator seperti pada gambar berikut, klik continue – OK


5. Kemudian hasilnya akan ditampilkan seperti berikut:



6. Interpretasi:

Nilai p-value sebesar 0,012 < nilai kritik 0,05, karena itu hipotesis null ditolak, bahwa terdapat cukup bukti dimana terdapat perbedaan dari ketiga kelompok responden dalam menilai tingkat kepercayaan terhadap ketiga atribut.(yoz)
Uji Reliabilitas DataFriday, December 11, 2009 4:13 AMReliabilitas statistik diperlukan untuk memastikan validitas dan ketepatan analisis statistik. Ia mengacu pada kemampuan untuk mereproduksi hasil lagi dan lagi sesuai kebutuhan. Hal ini penting karena akan membangun tingkat kepercayaan dalam analisis statistik dan hasil yang diperoleh.

Misalnya, Anda sedang meneliti tentang loyalitas konsumen terhadap produk susu merk tertentu. Anda ingin melakukan sejumlah survey terhadap pelanggannya, dan jika hasil yang ditemukan menunjukkan bahwa konsumen bersikap loyal, Anda mungkin akan mendapatkan gambaran pasti bahwa produk lain yang dikeluarkan oleh perusahaan susu tersebut akan tetap laku di pasaran.

Sebaliknya, jika nilai reliabilitas statistik loyalitas konsumen rendah, maka konsumen tidak akan percaya dengan produk-produk yang dikeluarkan oleh perusahaan tersebut.

Dalam SPSS 17.0, langkah-langkah pengujian reliabilitas adalah sebagai berikut:

1. Setelah data diinput ke dalam worksheet SPSS, maka cukup dengan menjalankan command Analyze – Scale – Reliability Analysis seperti berikut ini:


2. Semua data variabel/atribut kemudian dimasukkan ke dalam boks item.



3. Setelah itu klik Statistic di bagian kanan bawah kemudian checklist descriptive for ; item, scale, dan scale if item deleted kemudian continue.


4. Kemudian klik OK maka akan ditampilkan hasil seperti berikut:



5. Interpretasi:
Berdasarkan uji reliabilitas yang dilakukan, nilai Uji Statistik Cronbach Alpha adalah sebesar 0,607, artinya bahwa hasil tersebut lebih besar daripada 0,6 pada selang kepercayaan 5%. Dengan demikian data yang digunakan adalah valid dan memiliki reliabilitas yang baik. Nilai corrected item-total correlation mengindikasikan bahwa item no.3 dan item no.5 memiliki tingkat reliabilitas yang baik dengan nilai berturut-turut sebesar 0,450 dan 0,372 karena lebih dari 0,30 (azwar, 1999), dengan demikian skala yang akan digunakan untuk mewakili reliabilitas skala dalam penelitian.(yoz)

Make money internet surveys

 Uji ValiditasWednesday, December 09, 2009 7:51 PMJika anda mengumpulkan data yang berasal dari responden, misalnya dengan menggunakan skala likert (1 – 5), hal pertama yang harus anda lakukan adalah menguji validitas dan reliabilitas data kuesioner tersebut. Instrumen dikatakan valid apabila mampu mengukur apa yang diinginkan dan dapat mengungkap data variabel yang diteliti secara tepat. Tinggi rendahnya validitas instrumen menunjukkan sampai sejauh mana data yang dikumpulkan tidak menyimpang dari gambaran tentang variabel yang diteliti. Dalam survey uji validitas dilakukan dengan mengkorelasikan skor setiap item dengan total skor. Teknik korelasi yang digunakan adalah Pearson Product Moment, dimana instrumen dikatakan valid apabila nilai koefisien korelasinya (r) > r tabel.


1. Input data asli dari kuesioner anda ke dalam worksheet SPSS, jangan lupa sertakan totalnya di bagian paling akhir.

2. Kemudian pilih variable view dan beri nama label masing-masing kolom seperti berikut ini:


3. Pilih Analyze – Correlate – bivariate seperti di bawah ini:


4. Setelah itu akan muncul kotak dialog bivariate correlation, kemudian blok semua variabel beserta total dan pindahkan ke kolom variabel, lalu kemudian pada correlation coefficient pilih pearson; kemudian test of significant pilih 2-tailed – OK


5. Setelah itu akan muncul output seperti berikut ini:


6. Interpretasi:
Dari hasil analisis kita dapat melihat pada baris TOTAL dimana nilai sig.2-tailed pada item no.4 dan item no.6 adalah lebih besar dari nilai kritis α = 0,05, sedangkan item yang lain lebih kecil dari α = 0,05. Dengan demikian dapat dikatakan bahwa data pada item (atribut) nomor 4 dan 6 belum valid. Oleh karena itu pengambilan data kuesioner untuk atribut tersebut harus diulang kembali.(yoz)

Make money internet surveysUji T BerpasanganFriday, December 18, 2009 11:05 PMUji-t menilai apakah mean dan keragaman dari dua kelompok berbeda secara statistik satu sama lain. Analisis ini digunakan apabila kita ingin membandingkan mean dan keragaman dari dua kelompok data, dan cocok sebagai analisis dua kelompok rancangan percobaan acak.

Uji t berpasangan (paired t-test) biasanya menguji perbedaan antara dua pengamatan. Uji t berpasangan biasa dilakukan pada Subjek yang diuji pada situasi sebelum dan sesudah proses, atau subjek yang berpasangan ataupun serupa. Misalnya jika kita ingin menguji banyaknya gigitan nyamuk sebelum diberi lotion anti nyamuk merk tertentu maupun sesudahnya. Lanjutan dari uji t berpasangan adalah uji ANOVA berulang.

Rumus yang digunakan untuk mencari nilai t dalam uji-t berpasangan adalah:




Uji-t berpasangan menggunakan derajat bebas n-1, dimana n adalah jumlah sampel.


Hipotesis pada uji-t berpasangan yang digunakan adalah sebagai berikut:

H0: D = 0 (perbedaan antara dua pengamatan adalah 0)

Ha: D ≠ 0 (perbedaan antara dua pengamatan tidak sama dengan 0)

Ilustrasi:

Jika kita ingin membandingkan nilai matematika siswa di sebuah sekolah sebelum dan sesudah mengikuti bimbingan belajar, data yang diberikan adalah sebagai berikut:




Dengan SPSS 17.0 langkahnya sangat mudah:


1. Pertama-tama input data sebagai berikut:




2. Kemudian pilih Analyze – Compare Means – Paired Samples T test, seperti berikut:



3.Setelah muncul kotak dialog Paired-T test, masukkan kedua variabel ke kotak Paired Variables, kemudian klik continue – OK,




4. Akan ditunjukkan output sebagai berikut:




5. Interpretasi
Nilai t-hitung yang dihasilkan adalah 4,015 pada derajat bebas 14 lebih besar daripada nilai t-tabel sebesar 1,761 (lihat tabel sebaran t). nilai sig.2-tailed lebih kecil daripada nilai kritik 0,05 (0,001 < 0,05) berarti kita dapat menolak H0 dimana perbedaan adalah tidak sama dengan nol, artinya tidak terdapat perkembangan signifikan dari hasil bimbingan belajar yang dilakukan terhadap bidang studi matematika di sekolah tersebut.(yoz)

Referensi Lain:
Walpole, R.E.  1995.  Pengantar Statistika.  Gramedia Pustaka Utama: Jakarta.
Uji Chi SquareSunday, December 13, 2009 8:24 PMAda beberapa jenis tes chi-kuadrat tetapi yang paling umum adalah Pearson chi-kuadrat yang memungkinkan kita untuk menguji independensi dari dua variabel kategori. Semua tes chi-kuadrat didasarkan atas distribusi chi-kuadrat, mirip dengan cara t-tes, sama halnya dengan distribusi atau uji-F yang didasarkan pada distribusi F.

Misalkan kita memiliki hipotesis bahwa tingkat kelulusan / kegagalan dalam sebuah kelas matematika tertentu berbeda untuk laki-laki dan perempuan. Katakanlah kita mengambil sampel acak dari 100 siswa dan mengukur kedua jenis kelamin (laki-laki/wanita) dan status kelulusan (lulus/gagal) sebagai variabel kategorik.

Tabel 1. Data tingkat kelulusan kelas matematika tersebut akan menjadi sebagai berikut:



Hipotesis Null: Distribusi frekuensi beberapa kejadian yang diamati pada sebuah sampel konsisten dengan distribusi teoritis tertentu

1. Ketika menjalankan SPSS 17.0, maka input data yang dimasukkan adalah sebagai berikut:


Perhatikan struktur data awal (tabel 1), kolom 1 dan baris satu menunjukkan perhitungan  siswa laki-laki yang lulus, yaitu 30. Kemudian kolom 1 dan baris 2 menunjukkan siswa perempuan yang lulus, yaitu 36. Kolom 2 dan baris 1 menunjukkan siswa laki-laki yang tidak lulus, yaitu 14. Sedangkan kolom terakhir 2 dan baris 2 menunjukkan siswa perempuan yang tidak lulus, yaitu 34. Ini merupakan pola perhitungan crosstab (tabulasi silang) dalam statistik.

2. Setelah data diinput maka anda adalah harus menegaskan kepada   SPSS bahwa variabel PERHITUNGAN mewakili frekuensi untuk masing-masing unik pengkodean BARIS dan KOLOM, dengan menerapkan perintah DATA – WEIGHT CASE seperti gambar berikut ini:


3. Setelah muncul kotak dialog, pilih variabel PERHITUNGAN, pilih “weight case by” kemudian pindahkan variabel PERHITUNGAN dengan mengklik tanda panah seperti berikut:


4. Setelah itu pilih Analyze – Descriptive Statistic – Crosstabs, kemudian akan muncul kotak dialog seperti berikut ini:
Masukkan variabel baris ke ROW, dan variabel kolom ke COLUMN, sedangkan untuk variabel perhitungan tidak perlu lagi, karena sudah dilakukan pada tahap 3 diatas.


5. Kemudian pilih button Statistic (di bawah) – checklist chi-square seperti berikut ini:



6. Setelah itu akan didapatkan output seperti berikut:


Setelah output didapat, maka nilai Pearson Chi-Square dibandingkan dengan Chi-square tabel. Pembandingan ini menggunakan derajat bebas dengan rumus (baris – 1)(kolom – 1) atau (2 – 1)(2 – 1) = 1. Maka nilai kritiknya pada tabel sebaran chi-square adalah  3,841 artinya Хhitung > Xtabel atau 3,841 > 3,111 (lihat kembali tabel sebaran chi square). Dengan demikian Hipotesis Null tidak bisa diterima.

Dari hasil diatas dapat dilihat bahwa nilai Exact Sig.(2-sides) adalah 0,084 maka lebih besar dari titik kritis 0,05 (0,084 > 0,05). Dengan demikian dapat disimpulkan bahwa tidak ada hubungan antara jenis kelamin siswa kelas matematika dengan tingkat kelulusan.(yoz)

Make money internet surveysPeramalan Berbasis RegresiFriday, December 11, 2009 4:30 AMModel kausal mengasumsikan bahwa variabel yang diramalkan (variabel dependen) terkait dengan variabel lain (variabel independen) dalam model. Pendekatan ini mencoba untuk melakukan proyeksi berdasarkan hubungan tersebut. Dalam bentuknya yang paling sederhana, regresi linear digunakan untuk mencocokkan baris ke data. Baris itu kemudian digunakan untuk meramalkan variabel dependen yang dipilih untuk beberapa nilai dari variabel independen. Model yang digunakan sama dengan model pada regresi linier berganda, yaitu:

Y = b0 + b1X1 + b2X2 + b3X3 + … + bnXn + bnd + En

dimana:

Y = nilai observasi dari variabel yang diukur
b0 = konstanta
X = variabel pengukur (independen)
d = variabel surrogates (dummy)
ε = error

Ilustrasi:

Pabrik Susu “Maju-Mundur” ingin melihat penjualan perusahaan pada bulan-bulan berikutnya, yang dimulai pada bulan ke-13, variabel-variabel yang mereka sertakan dalam peramalan adalah jumlah biaya iklan dan biaya distribusi dalam jutaan Rupiah. Data yang diberikan adalah sebagai berikut:


Dengan SPSS 17.0, langkah-langkahnya adalah sebagai berikut:

1. Input data ke dalam worksheet SPSS seperti berikut:


2. Kemudian pilih Analyze – Regression – Linear, seperti berikut:


3. Setelah muncul kotak dialog Linear Regression, maka pindahkan variabel dependen “sales” ke kotak dependent, serta variabel iklan dan distribusi ke kotak independent, seperti berikut:


4. Setelah itu di sisi kanan, pilih statistic, centang estimates, model fit, dan Durbin Watson, klik continue:


5. Pada Plot, masukkan ZRESID ke kotak Scatter X, dan ZPRED ke scatter Y, lalu pada bagian Residuals centang normal probability plot, lalu klik continue – OK, seperti berikut:


6. Berikutnya akan ditunjukkan output sebagai berikut:


Output plot menunjukkan model yang dihasilkan terhadap garis linier.



Dari output  ANOVA dapat kita lihat model adalah signifikan yang diindikasikan dengan nilai sig. = 0,000.



Dari output  Coefficients kita dapati nilai koefisien korelasi yang akan dimasukkan ke dalam persamaan regresi model peramalan “sales” dengan variabel independen iklan dan distribusi.

Kedua variabel independen memiliki nilai p-value berturut-turut adalah 0,000 dan 0,030 yang lebih kecil dari nilai kritik α = 0,05, dengan demikian masing-masing variabel signifikan berpengaruh terhadap sales, dan baik untuk digunakan dalam peramalan.

Maka dengan demikian model yang didapatkan adalah:

Y = -103,3 + 9,59 (Iklan) + 4,44 (Distribusi) + ε

Hasil peramalan yang didapat dalam bulan berikutnya dapat diilustrasikan sebagai berikut:

Jika perusahaan memutuskan alokasi biaya iklan adalah 20 juta, dan biaya distribusi 30 juta pada bulan ke 13, maka jumlah total sales pada bulan ke-13 adalah:

Y = -103,3 + 9,59 (20) + 4,44 (30)

Y = 221,67 (dalam jutaan rupiah menjadi Rp.221.670.000,-)

Maka nilai penjualan pada bulan ke-13 adalah Rp. 221.670.000,-

Demikian seterusnya untuk bulan-bulan berikutnya, dengan menentukan alokasi “biaya iklan” dan “biaya distribusi”, maka manajemen dapat menentukan nilai penjualan (sales) dari model yang dihasilkan melalui metode kausal (regresi linier). (yoz)

Make money internet surveys

 Model Angka IdealWednesday, December 09, 2009 2:15 PMModel angka ideal merupakan suatu model yang memberikan informasi mengenai “merek ideal” atau bisa juga “atribut ideal” dan juga informasi berkenaan dengan bagaimana merk yang sudah ada dipandang oleh konsumen. Secara simbolis model tersebut dapat digambarkan sebagai berikut:

Ab = ΣWi [Ii – Xi)
dimana :

Ab   =  Sikap terhadap merek
Wi    =  Tingkat kepentingan terhadap atribut
Ii       =  Performans ideal merek terhadap atribut ke-i
Xi     =  Keyakinan (beliefs) terhadap performans merek yang diukur pada atribut     ke-i
n        =  Menunjukkan atribut yang dipertimbangkan (salient attributes)

Dengan model ini konsumen diminta menempatkan skala terhadap derajat atau tingkat atribut yang menonjol yang dimiliki suatu merek. Berdasarkan model ini, semakin dekat penilaian aktual suatu merek dengan penilaian ideal, maka sikap tersebut akan semakin mendukung.

Ilustrasi:

Jika kita ingin menerapkan model tersebut pada preferensi konsumen terhadap kecap manis. Asumsikan bahwa atribut berikut sebagai dimensi yang paling menonjol yang mendasari evaluasi kecap manis:

- Tingkat kekentalan
- Tingkat kepekatan
- Jumlah kalori
- Harga
- Kemasan

Dengan atribut-atribut menonjol tersebut, kita akan mengembangkan skala yang menggambarkan berbagai tingkat atribut menggunakan tingkat kekentalan sebagai contoh, skala tersebut akan seperti ini:
Sangat kental   1 :   2 :  3 :  4 :   5 :  6 :  7 :  Sangat encer

Konsumen kemudian akan menunjukkan rasa yang ideal yang mereka pilih dengan menempatkan performansi “ideal“ pada atribut i dalam kategori respons yang sesuai. Kemudian atribut lain akan mengikuti.

Ia dapat diartikan sebagai berikut, bahwa atribut kecap manis yang ideal adalah dengan tingkat kekentalan kental (2), kepekatan cukup (3), jumlah kalori yang rendah (6), harga yang cukup murah (5), dan dengan kemasan yang menarik (2). Tabel berikut akan menunjukkan perhitungan angka ideal menggunakan atribut ideal tadi.



Tidak penting sama sekali  1 : 2 : 3 : 4 : 5 : 6 : 7 : Sangat penting

Perhitungan skor total menggunakan nilai absolut, ilustrasinya adalah sebagai berikut:

1. Atribut tingkat kekentalan

Xi untuk merek A = (2 – 2)*6 = 0

Xi untuk merek B = (3 – 2)*6 = 6

2. Atribut tingkat kepekatan

Xi untuk merek A = (2 – 3)*3 = 3

Xi untuk merek B = (6 – 3)*3 = 9

3. Atribut Jumlah Kalori

Xi untuk merek A = (4 – 5)*4 = 4

Xi untuk merek B = (5 – 5)*4 = 0, dan seterusnya pada atribut lain

Demikianlah perhitungan tingkat kepercayaan semua atribut. Setelah semua atribut dihitung maka dijumlahkan akan didapat total skor. Berbeda dengan multiatribut Fishbein, dimana skor yang lebih tinggi disukai, maka skor yang lebih rendah lebih baik dalam model angka ideal. Dengan demikian Kecap Merk A lebih cocok dengan atribut ideal bagi konsumen. Adapun skor terbaik yang dapat diterima oleh suatu merek adalah nol, yang mengindikasikan merek tersebut cocok sempurna dengan konfigurasi atribut ideal.

Sumber:
Engel, J.F. Blackwell, A.D. Miniard, P.W. 1994. Perilaku Konsumen: Edisi Keenam. Binarupa Aksara: Jakarta.

Analytical Hierarchy Process (AHP)Friday, December 11, 2009 4:50 AMThomas L. Saaty pertama kali mengembangkan metode analytical hierarchy process (AHP) pada tahun 1980. Analisis ini ditujukan untuk membuat model permasalahan yang tidak terstruktur dan biasanya diterapkan bagi masalah-masalah terukur ataupun yang memerlukan penilaian (judgement). Beberapa prinsip-prinsip yang harus dipahami dalam AHP adalah:

A. DEKOMPOSISI

Memecah persoalan yang utuh menjadi unsur-unsurnya hingga tidak mungkin dilakukan pemecahan lebih lanjut sehingga kemudian didapat tingkatan dari persoalan tadi (hirarki).

Contoh hirarki dapat kita lihat dalam pengambilan beberapa alternatif keputusan, kita akan memulai dari tingkat dasar dengan menderetkan semua alternatif yang ada secara hirarki. Kemudian tingkat berikutnya terdiri atas kriteria untuk mempertimbangkan berbagai alternatif tadi. Sedangkan yang terakhir pada tingkat puncak hirarki adalah fokus pada satu elemen saja secara menyeluruh.

B. PENILAIAN KOMPARATIF (COMPARATIVE JUDGEMENT)

Prinsip kedua ini berarti dengan membuat penilaian tentang kepentingan relative dua elemen pada suatu tingkat tertentu dalam kaitan dengan tingkat di atasnya. Hasil penilaian ini lazim disajikan dalam bentuk perbandingan pairwise (pairwise comparison).
Pairwise comparison diimplementasikan dengan dua tahap:

1. Menentukan secara kualitatif kriteria mana yang lebih penting – misalnya mengurutkan ranking/peringkat.
2. Menggunakan masing-masing kriteria dengan bobot kuantitatif seperti peringkat yang memuaskan.

Proses pembanding dapat dikemukakan dengan penyusunan skala variabel. Dalam penyusunan skala kepentingan ini digunakan patokan table berikut ini.

Tabel 1. Skala Dasar


Dua elemen yang sama penting akan menghasilkan angka 1, sedangkan pada dua elemen akan berlaku aksioma reciprocal, artinya "jika elemen i dinilai 2 kali lebih penting daripada elemen j, maka elemen j akan dinilai sebaliknya daripada elemen i, yaitu ½".

Jika terdapat 10 elemen, maka akan diperoleh matriks pairwise comparison berukuran 10 x 10. Jadi jika terdapat n elemen, maka akan diperoleh matriks pairwise comparison berukuran n x n.

Contoh perbandingan mutu produk dengan matriks pairwise comparison dengan ukuran n x n (ditunjukkan dengan indikator vertikal dan horizontal).


Sedangkan banyaknya penilaian yang diperlukan dalam menyusun matriks adalah n (n-1)/2, karena matriksnya reciprocal dan elemen-elemen diagonal sama dengan 1.

C. URAIAN PRIORITAS (SYNTHESIS OF PRIORITY)

Dari setiap matriks pairwise comparison kemudian dicari eigen-vektornya untuk mendapatkan local priority. Kumpulan dari masing-masing local priority kemudian akan menghasilkan global priority.

Tabel 2. Local priority



D. KONSISTENSI LOGIS (LOGICAL CONSISTENCY)

Maksudnya adalah bahwa proses yang dilakukan harus konsisten. Berikut ini contoh konsistensi logis pada AHP:

1. Objek-objek serupa dikelompokkan dalam himpunan seragam

1.   Misalnya kategori “bulat” adalah untuk bola dan kelereng, jika kategorinya adalah “rasa”, maka yang masuk adalah manis, asin, ataupun pahit.

2.   Tingkat hubungan antara objek-objek berdasarkan kriteria tertentu. Misalnya pada tingkat hubungan reciprocal ataupun tingkatan hubungan.

Langkah-Langkah Penggunaan AHP

1. Identifikasi sistem
2. Penyusunan hirarki
3. Penyusunan matriks gabungan
4. Pengolahan vertical
5. Penghitungan vektor prioritas.


Sumber:

Maarif, M.S, Tanjung, H. 2003. Teknik-Teknik Kuantitatif Untuk Manajemen. Gramedia Widiasarana Indonesia: Jakarta.

http://deseng.ryerson.ca/xiki/Learning/Main:Pairwise_comparison

 Metode Exponential SmoothingFriday, December 11, 2009 4:31 AMExponential Smoothing merupakan prosedur perbaikan terus-menerus pada peramalan terhadap objek pengamatan terbaru. Ia menitik-beratkan pada penurunan prioritas secara eksponensial pada objek pengamatan yang lebih tua. Dengan kata lain, observasi terbaru akan diberikan prioritas lebih tinggi bagi peramalan daripada observasi yang lebih lama.

1. Single Exponential Smoothing

Juga dikenal sebagai simple exponential smoothing yang digunakan pada peramalan jangka pendek, biasanya hanya 1 bulan ke depan. Model mengasumsikan bahwa data berfluktuasi di sekitar nilai mean yang tetap, tanpa trend atau pola pertumbuhan konsisten.

Rumus untuk Simple exponential smoothing adalah sebagai berikut:
St = α * Xt + (1 – α) * St-1
dimana:

St = peramalan untuk periode t.
Xt + (1-α) = Nilai aktual time series
Ft-1 = peramalan pada waktu t-1 (waktu sebelumnya)
α  = konstanta perataan antara nol dan 1

2. Double Exponential Smoothing

Metode ini digunakan ketika data menunjukkan adanya trend. Exponential smoothing dengan adanya trend seperti pemulusan sederhana kecuali bahwa dua komponen harus diupdate setiap periode – level dan trendnya. Level adalah estimasi yang dimuluskan dari nilai data pada akhir masing-masing periode. Trend adalah estimasi yang dihaluskan dari pertumbuhan rata-rata pada akhir masing-masing periode. Rumus double exponential smoothing adalah:

St = α * Yt + (1 – α) * (St-1 + bt-1)            
bt = Υ * (St – St-1) + (1 – Υ) * bt-1             

3. Triple Exponential Smoothing

Metode ini digunakan ketika data menunjukan adanya trend dan perilaku musiman. Untuk menangani musiman, telah dikembangkan parameter persamaan ketiga yang disebut metode “Holt-Winters” sesuai dengan nama penemuya. Terdapat dua model Holt-Winters tergantung pada tipe musimannya yaitu Multiplicative seasonal model dan Additive seasonal model yang akan dibahas pada bagian lain dari blog ini.

Untuk Ilustrasi penggunaan SPSS mari kita kembali ke toko “AHOY” yang sehari-hari menjual gula. Untuk saat ini penjualannya hingga minggu ke-7 adalah pada tabel berikut:

Minggu
Sales   (kg)
1
120
2
150
3
140
4
130
5
150
6
200
7
160
AHOY ingin mengetahui penjualan gulanya pada minggu ke delapan dengan metode exponential smoothing, aplikasi SPSS dapat dilakukan sebagai berikut:

Untuk SPSS 13, 14, dan 15 langkah-langkahnya dengan menggunakan konstanta pemulusan 0,2 tidak dirinci disini, secara garis besar langkah-langkahnya adalah sebagai berikut:

1. Pilih Analyze – Time Series – Exponential Smoothing
2. Kemudian pilih variabel sales, lalu klik Parameters, isikan angka 0,8 pada damping factor, kemudian ubah General alpha menjadi 0,2.
3. Kemudian klik Custom under initial value, isikan 17 untuk starting, dan 0 untuk value. Kemudian Continue – Save.

4. Selanjutnya klik Predict through, masukkan angka 8 pada corresponding box (hasil peramalan yang ingin dilihat adalah pada minggu ke-8). Klik continue – OK.

Hasil yang didapat adalah pada kolom ketiga paling kiri data.


_______________________________________________________

Untuk langkah-langkah pada SPSS 17.0 akan kita bahas secara lengkap berikut ini:

Langkah-langkah awal memasukkan data telah dibahas pada bagian sebelumnya (Simple Moving Average).

1. Klik Analyze – Forecasting – Create Models seperti berikut:
    
2. Setelah muncul kotak dialog Time Series Modeller, masukkan variabel sales ke kolom dependent variables, kemudian pilih method dengan “exponential smoothing”, seperti gambar di bawah:
    
3. Klik Criteria, lalu pada model type pilih metode sesuai dengan tipe data yang anda gunakan, apakah simple, Holt’s linear trend, atau yang lainnya, pada kasus ini kita akan menggunakan metode simple exponential smoothing, kemudian klik continue.
    
4. Pada menubar Statistic, checklist kotak display forecast seperti berikut:
    
5. Pada menubar save isikan angka 8 pada predicted values.
    
6. Kemudian pada menu option, isikan observation sesuai dengan periode peramalan yang anda inginkan misalnya pada kasus toko “AHOY” ini adalah 8. Klik OK,
    
7. Setelah itu akan muncul output berikut ini:
    
    
Pada bagian grafik yang ditandai, merupakan peramalan penjualan toko AHOY pada minggu ke-8, sedangkan nilai MAPE merupakan selisih error antara data aktual dengan ramalan dalam persentase.

Make money internet surveys

8. Sedangkan nilai pemulusan beserta hasil peramalannya dapat dilihat pada bagian data editor berikut ini:
    
Demikianlah tahapan peramalan metode exponential smoothing dengan SPSS 17.0, mudah bukan??(yoz)

 Metode Simple AverageFriday, November 27, 2009 12:09 AMMetode Simple Average (rata-rata sederhana) adalah metode peramalan yang menghitung rata-rata seluruh data masa lalu untuk mendapatkan hasil peramalan masa depan. Jika kita akan meramal jumlah order garmen pabrik pada tahun ke- 10, maka:

Ilustrasi peramalan pada tabel yang dimulai dari tahun ke 2 adalah sebagai berikut:
    
Maka pada tahun ke-10 order akan sebanyak 200. (yoz)Korelasi ParsialFriday, December 11, 2009 4:34 AMKorelasi parsial adalah pengukuran hubungan antara dua variabel, dengan mengontrol atau menyesuaikan efek dari satu atau lebih variabel lain. Singkatnya r1234 adalah korelasi antara 1 dan 2, dengan mengendalikan variabel 3 dan 4 dengan asumsi variabel 1 dan 2 berhubungan linier terhadap variabel 3 dan 4. Korelasi parsial dapat digunakan pada banyak kasus, misalnya apakah nilai penjualan suatu komoditi terkait kuat kepada pembelanjaan iklan ketika efek harga dikendalikan. Jika korelasi parsialnya nol, maka dapat disimpulkan bahwa korelasi yang dihitung sebelumnya adalah semu.

Rumus yang digunakan dalam korelasi parsial adalah:

rxy.z = [ rxy – (rxz) (ryz) ] / [ 1 - r2xz 1 - r2yz ]

dimana:
rxy.z = korelasi parsial antara X dan Y, dengan mengendalikan Z

Ilustrasi:

Hubungan antara Produksi (ton), nilai ekspor (US$), dan inflasi diberikan dengan tabel sebagai berikut:
Produksi
(ton)
Nilai Ekspor
(US$)
Inflasi
3000
300
2
5000
460
5
4500
350
6
3800
200
3
2700
198
5
8500
490
3
6500
400
2
3000
170
4

Dengan SPSS 17.0, langkah pengolahan datanya adalah sebagai berikut:

1. Masukkan data ke dalam worksheet SPSS seperti berikut ini:


2. Dari menubar Pilih Analyze – Correlate – Partial,



3. Setelah muncul kotak dialog Partial Correlation, masukkan variabel yang akan dikorelasikan ke dalam kotak variables, dan variabel yang dikontrol ke dalam kotak controlling for, lalu pilih option, pertama-tama kita akan mengontrol variabel inflasi.


4. Setelah muncul kotak dialog option, checklist zero order correlation seperti berikut, lalu klik continue.


5. Setelah itu akan muncul output berikut ini:


Korelasi yang didapat setelah mengendalikan faktor inflasi adalah signifikan yaitu 0,853.

Hal yang sama juga dapat dilakukan dengan mengendalikan faktor-faktor yang lain, dalam kasus ini kita dapat mengendalikan faktor produksi ataupun nilai ekspor.(yoz)

 Metode Simple Moving AverageFriday, December 11, 2009 4:31 AMMetode Smoothing merupakan salah satu jenis teknik yang digunakan dalam analisis time series (runtun waktu) untuk memberikan peramalan jangka pendek. Dalam melakukan smoothing (penghalusan) terhadap data, nilai masa lalu digunakan untuk mendapatkan nilai yang dihaluskan untuk time series. Nilai yang telah dihaluskan ini kemudian diekstrapolasikan untuk meramal nilai masa depan. Tehnik yang kita kenal dalam metode smoothing yaitu Simple Moving Average dan Exponential smoothing. Pada halaman ini, saya hanya akan membahas tentang Simple Moving Average.

Simple Moving Average

Data time series seringkali mengandung ketidakteraturan yang akan menyebabkan prediksi yang beragam. Untuk menghilangkan efek yang tidak diinginkan dari ketidak-teraturan ini, metode simple moving average mengambil beberapa nilai yang sedang diamati, memberikan rataan, dan menggunakannya untuk memprediksi nilai untuk periode waktu yang akan datang. Semakin tinggi jumlah pengamatan yang dilakukan, maka pengaruh metode moving average akan lebih baik. Meningkatkan jumlah observasi akan menghasilkan nilai peramalan yang lebih baik karena ia cenderung meminimalkan efek-efek pergerakan yang tidak biasa yang muncul pada data.

Moving Average juga mempunyai dua kelemahan yaitu memerlukan data masa lalu dalam jumlah besar untuk ketepatan prediksi, dan masing-masing observasi diberikan bobot yang sama, ini melanggar bukti empiris bahwa semakin observasi terbaru seharusnya lebih dekat dengan nilai masa depan maka kepentingan bobotnya akan meningkat pula.

Aplikasi Metode Moving Average dengan software SPSS 17.0 dapat dilihat pada contoh berikut ini:

Jika kita memiliki data penjualan gula di “TOKO AHOY” per minggu seperti pada tabel berikut ini:

   
1. Langkah pertama adalah memasukkan data ke dalam worksheet SPSS sebagai berikut:

Data View:



Variable View: Nama Variabel kemudian diganti menjadi minggu dan sales


2. Kemudian pilih Transform – Create Time Series Seperti Gambar:


3. Setelah itu akan muncul kotak dialog berikut, pilih Sales dan klik panah sehingga variabel sales berpindah ke kolom variabel – New Variabel di sebelah kanan.




4. Setelah itu pilih Centered Moving Average, atau bisa juga Prior Moving Average.


5. Kemudian isikan span dengan 3, dan klik change. Span diisi dengan angka 3 artinya mengalami proses 3 kali smoothing yang biasa kita kenal juga dengan Weighted Moving Average. Adapun proses 1 dan 2 kali smoothing kita sebut Single Moving Average dan Double Moving Average.


6. Output yang didapat dari metode Centered Moving Average – Weighted Moving Average adalah sebagai berikut:


Dari output diatas, dapat diketahui bahwa Nilai Sales pada minggu ke-8 hingga 12 berdasarkan metode centered moving average berturut-turut adalah 171,67, 218,33, 196,67, 203,33, dan 176,67.

Output yang didapat dari metode Prior Moving Average adalah sebagai berikut:


Maka Nilai Sales yang didapatkan pada minggu ke-8 hingga 12 berdasarkan metode prior moving average berturut-turut adalah 171,67, 218,33, 196,67, dan 203,33.

Sejak keduanya merupakan metode simple moving average dengan span 3, maka hasil peramalannya akan sama.(yoz)
Share this product :

Posting Komentar

Catatan: Hanya anggota dari blog ini yang dapat mengirim komentar.

 
Support : Creating Website | Johny Template | Mas Template | Redesigned :Tukang Toko Online
Copyright © 2011. OLAH DATA STATISTIK MALANG - All Rights Reserved
Template Created by Creating Website Published by Mas Template
Proudly powered by Blogger