• UGM
  • IT Center
Universitas Gadjah Mada ILMU KOMPUTER
Universitas Gadjah Mada
  • Halaman Utama
  • Tentang Ilmu Komputer
  • Program
    • Kelas Reguler
    • Kelas Internasional
    • Minat
  • Civitas
    • Staff Pengajar
    • Organisasi Mahasiswa
  • Penelitian
    • Laboratorium
  • Beranda
  • civitas
Arsip:

civitas

Suprapto, M.Kom

civitas Wednesday, 9 May 2012

Judul : Pemilihan Jalur-jalur transisi state memanfaatkan Pendekatan Heuristik dengan Algoritma Genetika untuk Mereduksi Ruang State
Abstrak :

Permasalahan utama yang muncul dalam model cheking terhadap sistem reaktif atau sistem konkuren adalah state-space explosion, yaitu banyaknya state dalam ruang state dari sistem-sistem kompleks yang besar bisa luar biasa besar, bahkan bisa tak-berhingga, sehingga tidak mungkin melakukan eksplorasi ruang state secara menyeluruh. Sehingga banyak penelitian yang bertujuan mengurangi (atau mereduksi) ukuran ruang state.
Dalam penelitian ini diusulkan sebuah pendekatan heuristik dengan algoritma genetika untuk menyeleksi (secara random) path-path transisi state yang perlu dicek. Path-path yang dimaksud, direpresentasikan sebagai string of states dan selanjutnya disebut kromosom. Dengan bantuan model checker, path-path tersebut dicek untuk mengetahui apakah ada state error yang bisa dicapai (reachable error states).

Latar Belakang :

Banyaknya states dalam sejumlah variabel dalam graph program, misal untuk N variabel dengan sebuah domain dengan k nilai-nilai yang mungkin; banyaknya state berkembang menjadi kN. Pertumbuhan eksponensial ini juga dikenal sebagai permasalahan state-space explosion (Baier dan Katoen, 2008). Bahkan untuk graph program sederhana sekalipun yang hanya dengan sejumlah kecil variabel, batasan ini bisa agak berlebihan. Sebagai contoh, sebuah graph program dengan sepuluh lokasi, yang terdiri dari tiga variabel Boolean dan lima interger terbatas (dengan domain dalam {0, 1, …, 9}) mempunyai 10×23x105 = 8.000.000 states. Seandainya sebuah array bit tunggal dengan 50 bit ditambahkan ke graph program (contoh), batas ini bahkan berkembang menjadi 800.000×250. Secara jelas pengamatan ini memperlihatkan mengapa verifikasi terhadap sistem-sistem data–intensive (dengan banyak variabel atau domain-domain yang kompleks) sangat sulit. Sehingga meskipun dalam sebuah program hanya ada sejumlah kecil variabel, akan tetapi ruang state yang harus dianalisa bisa sangat besar.

Model checking merupakan salah satu teknis otomatis untuk memverifikasi sistem-sistem konkuren state-berhingga, yang secara khusus melibatkan pencarian menyeluruh terhadap ruang state dari sebuah sistem untuk menentukan apakah suatu property dari sistem dipenuhi atau tidak. Sudah banyak teknik-teknik eksplorasi ruang state (state space) digunakan secara sukses untuk mendeteksi kesalahan-kesalahan penting yang belum (tidak) kelihatan dalam rancangan dan implementasi dari beberapa sistem reaktif konkuren hardware maupun software. Tujuan praktis utama dari eksplorasi ruang state adalah untuk menemukan kesalahan-kesalahan (errors) yang sulit dideteksi.

Batasan praktis utama ketika melakukan model checking terhadap sistem-sistem reaktif konkuren adalah berurusan dengan apa yang disebut permasalahan state-space explosion, yaitu banyaknya state yang termuat dalam ruang state dari sistem-sistem kompleks yang besar bisa luar biasa besar dan bahkan tak-berhingga. Sudah banyak pendekatan-pendekatan yang diusulkan untuk menyelesaikan permasalahan state-space explosion, termasuk verifikasi  simbolik, metode-metode partial-order, metode-metode simetri, dan sebagainya. Meskipun pendekatan-pendekatan ini telah meningkatkan cakupan model checking ke ruang state-ruang state dengan jumlah state dalam order yang lebih besar, akan tetapi masih banyak ruang state masih terlalu besar untuk ditangani. Sehingga state-explosion masih menjadi permasalahan mendasar dalam model checking.

Ketika sebuah permasalahan secara komputasional sulit diselesaikan menggunakan sebuah algoritma yang  pasti dan lengkap, dalam ilmu komputer biasanya diselesaikan dengan menggunakan pendekatan heuristik untuk mendapatkan penyelesaian-penyelesaian pendekatan terhadap permasalahan, atau untuk mengarahkan ke penyelesaian secara lebih cepat. Meskipun ide pemanfaatan heuristik untuk model checking sulit untuk diterima, karena model checking bukan permasalahan optimasi. Di samping itu, dengan menggunakan pendekatan heuristik justru menghindari pengecekan secara menyeluruh terhadap jalur-jalur transisi yang ada (mungkin dalam ruang states. Akan tetapi, apabila dilihat dari tujuannya yaitu mencari jalur-jalur tertentu saja yang berpotensi memuat error state yang harus dicek oleh model checker, berarti letak optimasinya pada peminimalan banyaknya jalur-jalur transisi state yang harus dicek. Sehingga pemanfaatan heuristik dalam model checking bisa diterima.

Dalam penelitian ini diusulkan sebuah model yang menggunakan algoritma genetika untuk memanfaatkan heuristik dalam menentukan jalur-jalur transisi mana yang harus dilakukan pengecekan oleh (dengan bantuan) model checker. Jalur-jalur yang direkomen-dasikan oleh algoritma genetika selanjutnya akan dieksekusi oleh model checker untuk mengetahui apakah ada error state di dalamnya. Keberadaan error state dalam suatu jalur akan digunakan sebagai nilai fitness dari kromosom yang merepresentasikan jalur transisi tersebut.

 

Tujuan Penelitian

Seperti penelitian-penelitian yang lain khususnya untuk area state explosion problems, penelitian inipun bertujuan mengarahkan (atau merekomendasikan) model checker untuk melakukan pengecekan terhadap jalur-jalur transisi state yang mempunyai potensi untuk memuat error state. Adapun kontribusinya adalah sebuah usulan tentang cara lain bagaimana merepresentasikan jalur-jalur transisi state tersebut ke dalam bentuk kromosom dalam algoritma genetika. Di samping itu, dalam penelitian ini juga akan diusulkan cara lain komunikasi antara model checker dengan model algoritma genetika.

 

Urgensi Penelitian

Seperti yang sudah disebutkan di depan, bahwa salah satu permasalahan yang menghambat dalam model checking adalah peningkatan ukuran ruang sampel yang sangat cepat (secara eksponensial) seiring dengan meningkatnya kompleksitas sistem. Sehingga banyak penelitian yang sudah dilakukan dalam area ini bertujuan untuk mereduksi ukuran ruang state dengan tetap menjaga tercapainya tujuan utama dalam proses model checking.

Pada umumnya penelitian-penelitian dilakukan dengan berawal dari penelitian yang sudah ada (dilakukan sebelumnya) dengan tujuan (harapan) bisa memperbaiki hasil yang sudah dicapai sebelumnya menggunakan cara, teknik atau metode yang bisa berbeda. Seperti halnya penelitian ini yang dilakukan dengan berawal pada penelitian yang sudah dilakukan (sudah ada) (Godefroid, P., dan Khurshid, S., 2002). Selanjutnya, dalam penelitian ini diusulkan suatu cara lain dalam merepresentasikan penyelesaian suatu permasalahan yang akan diselesaikan, yaitu jalur-jalur transisi state yang harus dieksekusi (dicek) oleh model checker untuk menentukan ada tidaknya error states. Harapannya, dengan cara representasi ini akan lebih banyak mereduksi ukuran ruang state dibanding dengan hasil dari penelitian sebelumnya

 

Studi Pustaka :

DAFTAR PUSTAKA

Alur, R., Brayton, R. K., Henzinger, T. A., Qadeer, S., dan Rajamani, S. K., 1997, Partial-Order Reduction in Symbolic State Space Exploration, Proceedings of the 9th International Conference on Computer-aided Verification (CAV 97), Lecturer Notes in Computer Science 1254, Springer-Verlag, 1997, pp. 340-351.

Baier, C. dan Katoen, J. P., 2008, Principles of Model Checking, The MIT Press, Cambridge, Massachusetts, 2008.

Basagiannis, S., Katsaros, P., dan Pombortsis, A., ——-, State Space Reduction with Message Inspection in Security Protocol Model Checking, ——

Chakraborty, A., dan Garg, V. K., 2000, On Reducing the Global State Graph for Verification of Distributed Computations, —

Flanagan, C., dan Saxe, J. B., 2001, Avoiding Exponential Explosion : Generating Compact Verification Conditions, Conference Record of POPL ’01 : The 28th ACM Symposium on the Principles of Programming Language.

Godefroid, P., dan Khurshid, S., 2002, Exploring Very Large State Spaces Using Genetic Algorithms, J.-P. Katoen and P. Stevens (Eds.) : TACAS 2002, LNCS 2280, pp. 266-280, 2002.

Holzmann, G. J., 1997, The Model Checker SPIN, IEEE Transactions on Software Engineering, Vol. 23, No. 5.

Kashyap, S., dan Garg, V. K., 2001, State space reduction using Predicate Filters, NSF Grants CNS-0509024 and an Engineering Foundation Fellowship.

Sivaraj, H., dan Gopalakrishnan, G., —–, Random Walk Based Heuristic Algorithms for Distributed Memory Model Checking, The Semiconductor Research (SRC) and the National Science Foundation (NSF).

 

Penelitian Sebelumnya :

No. Tahun Judul Riset Pendanaan
Sumber Jumlah (Juta Rp)
1. 2009 Perbandingan Clustering dengan OpenMosix dan OSCAR untuk Memperoleh Efisiensi dan Optimalisasi Operasi Rendering RUSNAS UGM 2009
2. 2010 Penerapa Algoritma Genetika pada Permasalahan Penugasan (Assignment Problem) HIBAH JURUSAN MATEMATIKA
3. 2011 Model Pengawanan Konstruk (construct association) dari Promela ke Java HIBAH S2 ILKOM

Sri Mulyana, M.Kom

civitas Wednesday, 9 May 2012

Judul : Model evaluasi pengukuran kesamaan kasus pada penalaran berbasis kasus (Studi kasus : Penentuan jurusan di SMU)
Abstrak :

Salah satu metode penalaran dalam sistem pakar adalah penalaran berbasis kasus (Case-Based Reasoning). Pada penalaran berbasis kasus (Case-Based Reasoning), suatu basis kasus berisi kasus-kasus dengan solusi yang telah dicapai.  Untuk menemukan solusi dari sebuah kasus baru yang diberikan, sistem akan mencari kasus-kasus dalam basis kasus yang memiliki tingkat kesamaan yang paling tinggi. Salah satu metode untuk menghitung tingkat kesamaan kasus adalah jarak euclid.

Sebuah evaluasi terhadap perhitungan kesamaan kasus merupakan hal yang penting dalam penalaran berbasis kasus (CBR). Pada penelitian ini akan dikembangkan sebuah model perhitungan tingkat kesamaan kasus dengan jarak euclid dimana atribut dari kasusnya berupa simbol, nilai numerik dan nilai interval. Studi kasus akan diambil dari kasus-kasus penentuan jurusan di SMU.

 

Latar Belakang            :

Case-Based Reasoning (CBR) telah menjadi teknik yang sukses untuk sistem berbasis pengetahuan dalam banyak domain. Case-Based Reasoning (CBR) berarti menggunakan pengalaman sebelumnya dalam kasus yang mirip untuk memahami dan memecahkan permasalahan baru. Case-based Reasoning (CBR) mengumpulkan kasus sebelumnya yang hampir sama dengan masalah yang baru dan berusaha untuk memodifikasi solusi agar sesuai dengan kasus yang baru (Aamodt dan Plaza,1994). Ide dasar dari Case-Based reasoning adalah asumsi bahwa permasalahan yang serupa mempunyai solusi serupa. Meskipun asumsi ini tidaklah selalu benar, hal ini tergantung pada banyaknya domain praktis.

Case-Based Reasoning (CBR) terdiri dari atas empat langkah utama, yaitu:

1). Retrieve : yaitu mengambil kembali permasalahan yang sama. Pada langkah ini dilakukan proses pencarian atau kalkulasi dari kasus-kasus yang memiliki kesamaan.

2).  Reuse : yaitu menggunakan kembali informasi dan pengetahuan dalam kasus tersebut untuk mengatasi masalah baru. Pada langkah ini dicari solusi dari kasus serupa pada kondisi sebelumnya  untuk permasalahan baru.

3).  Revise : yaitu meninjau kembali solusi yang diberikan. Pada langkah ini dicari solusi dari kasus serupa pada kondisi sebelumnya  untuk permasalahan yang terjadi kemudian.

4). Retain : yaitu mendalami bagian dari pengalaman sebelumnya untuk digunakan dalam pemecahan masalah berikutnya.

Hubungan antara langkah-langkah tersebut dapat disajikan pada gambar-1 berikut :

Gambar-1: Siklus Case-based Reasoning (Aamodt dan Plaza,1994)

 

Salah satu tahapan terpenting dalam proses penyelesaian masalah adalah proses pengambilan kasus (case retrieval) dan telah banyak peneliti yang fokus pada tahapan ini. Dalam proses retrieval, kesamaan antar kasus menjadi dasar dalam pengambilan kasus di dalam basis kasus. Semakin besar tingkat kesamaan yang dimiliki oleh suatu kasus di dalam basis kasus dengan kasus yang baru, memungkinkan solusi pada kasus tersebut dapat digunakan untuk menyelesaikan masalah pada kasus yang baru.

Tingkat kesamaan kasus ini sangat mempengaruhi kinerja sistem CBR, karena solusi-solusi pada kasus sebelumnya dapat digunakan sebagai acuan dalam pembelajaran dan penyelesaian masalah yang baru. Banyak peneliti yang telah menggunakan berbagai algoritma dalam retrieval kasus. Ketika terdapat banyak kasus di dalam basis kasus dengan atribut yang berbeda-beda, tentunya akan menyulitkan suatu sistem retrieval dalam menemukan kasus yang sesuai.

Masalah pengukuran tingkat kesamaan kasus adalah seperti mencari kesamaan atau perbedaan diantara dua buah objek, dan telah menjadi salah satu perhatian dalam sistem CBR. Pengambilan kasus yang serupa yang memiliki kesamaan dengan kasus yang baru merupakan langkah penting dari keseluruhan proses pengambilan keputusan (Leake, 1996). Dalam proses ini dua obyek diukur nilai kesamaannya menggunakan parameter yang telah ditentukan, sehingga akan diperoleh nilai kesamaan antara dua objek tersebut. Namun seringkali pengukuran kesamaan antar dua objek tersebut memerlukan hitungan yang kompleks, sehingga kesamaan antara dua objek tersebut dapat memberikan manfaat terhadap proses penyelesaian masalah secara keseluruhan.

Masalah yang lain adalah bagaimana menentukan fitur-fitur dari suatu kasus untuk dapat dibandingkan. Menentukan fitur-fitur tersebut sering kali memang sangat sulit. Penjelasan tentang deskripsi dari sebuah kasus sering kali kurang sempurna, sehingga fitur-fitur pembanding yang didapatkan juga kurang dapat membantu untuk menemukan kesamaan antara dua kasus yang dibandingkan. Selain itu, masukan deskripsi masalah tidak cukup untuk menentukan kesamaan situasi  kasus lama dan kasus baru (Leake, 1996).

Banyak pendekatan yang dapat digunakan dalam memetakan kesamaan antara dua objek. Misalya dua kasus yang direpresentasikan sebagai vektor dengan menetapkan pasangan atribut kasus tersebut. Kesamaan dari sepasang atribut tersebut biasanya disebut dengan bobot rata-rata. Dengan bobot tersebut memungkinkan atribut-atribut dapat memiliki berbagai tingkat kepentingan yang nantinya dapat digunakan dalam proses pembelajaran adaptif.

Pendekatan dalam retrieval berdasarkan fitur permukaan, kesamaan setiap kasus dengan masalah target biasanya direpresentasikan sebagai bilangan real dalam (0,1), dihitung menurut ukuran kesamaan yang diberikan. Biasanya kasus yang diambil adalah kasus yang paling mirip dengan masalah target. Pendekatan seperti ini sering disebut dengan pendekatan K-Nearest Neigbours (K-NN) atau kasus tetangga terdekat. Sistem CBR dapat menjamin bahwa pengambilan kasus yang paling mirip dengan masalah target adalah dengan menghitung kesamaan masalah target untuk setiap kasus di  dalam memori (Mantaras dkk, 2006).

 

Tujuan Penelitian        :

Penelitian ini bertujuan mengembangkan sebuah model perhitungan tingkat kesamaan kasus dengan K-Nearest Neigbours (K-NN) atau jarak euclidian dimana atribut dari kasusnya berupa simbol, nilai numerik dan nilai interval.

 

Keutamaan Penelitian            :

Dalam banyak aplikasi CBR, penggunaan model perhitungan tingkat kesamaan kasus dengan K-Nearest Neigbours (K-NN) atau jarak euclidian adalah untuk atribut kasus yang bernilai numerik saja. Dalam penelitian ini akan dilakukan evaluasi model penilaian tingkat kesamaan kasus yang memiki nilai atribut yang bukan hanya numerik saja, melainkan gabungan simbol, numerik dan nilai interval. Hal ini sangat penting, mengingat nilai atribut suatu kasus tidak selalu berupa numerik atau dipaksakan menjadi numerik.

 

Daftar Pustaka                        :

Aamold A. dan Plaza E., 1994, Case-based Reasoning : foundation issues, methodological variation and System approach, AI Communication 7(1), pp. 39-59

Ashley K.D., dan Rissland E.L., 1987, Compare and Contrast : A test experience, Proceeding AAAI ‘87

Bareiss R., Poter  W., Weir C.C., 1989, PROTOS : An exemplar-based learning apprentice, Int. J. Of Man-Machine Studies 29, pp. 549-561

Barletta R., dan Hennessy D., 1989, Case adaption in autoclave layout design. In Hammond (eds.) : Proceeding Second Workshop on case-based reasoning, Pensacola Beach, Florida, Morgan-Kauffman

Boehmer W., 2010, Analyzing Human Bahavior using Case-based Reasoning with help of Forensic Question. 24th International Conference on Advanced Information Networking and Application. IEEE Computer Society. 1189-1194

Carbonel  J., 1983, Learning by analogy : Formulating and generalizing pants form past experience. In (Michalsi, Carbonell dan Mithec, eds.): Machine Learning : An Artificial Intelligence Approach, Tioga, Palo Al

 

Carbonel J., Knoblock C.A., Minton S., 1991, PRODIGY : An integrated architecture for planning and learning. In (Kurt Van Lehn eds.) Architecture for Intelligence, the Twenty Second Caenegie Mellon Symposium on Cognition, Earlbaum Publ.

 

Chen W., Lou P., Shen Z., 2008, Case-based reasoning and Intelligent Variation Approach in Fixture Design. Second International Symposium on Intelligent Information Technology Application. IEEE Computer Society. 833-837

 

Collins G., 1987, Plan creation: Using strategies as blueprints. Ph.D. Thesis. Yale University

 

Denis M., dan Jasmin A., 2009, Applying Case-based reasoning for mobile support in diagnosing infective diseases. International Conference on Signal Processing Systems, IEEE Computer Society. 779-783

 

Dave B., Schmitt G., Shih S-G., Bendel L., Faltings B., Smith I., Hua K., Bailey S., Ducret J.M., Jent K., 1994, Case-based spatial design reasoning. Proceedings Second European Workshop on Case-Based Reasoning. 115-124

 

Deters R.D., 1994, CBR for maintenance of telecommunication networks. Proceedings Second European Workshop on Case-Based Reasoning. 23-32

Goel A., 1989, Integration of case-based reasoning and model-based reasoning for adaptive design problem solving. Ph.D. Thesis. The Ohio State University

 

Goel A. dan Chandrasekaran B., 1989, Use of device models in adaptation of design cases. In Hammond (ed.): Proceedings Second Workshop on case-based reasoning, Pensacola Beach, Florida, Morgan-Kauffman

 

Hammond K., 1986, CHEF: A model of case-based planning. Proceedings of AAAI-86

 

Hammond K., 1987,  Explaining and repairing plans that fail. IJCAI-87, 109-114

 

Hinrichs T.R., 1988, Towards an architecture for open world problem solving. In Kolodner (ed.): Proceedings Case-Based Reasoning Workshop, San Mateo, California, Morgan-Kauffman Publ.

 

Jiang G., Wang Y., Liu H., 2010, Research on Software Cost Evaluation Model based on Case-based Reasoning, Second WRI World Congress on Software Engineering. IEEE Computer Society. 338-341

 

Jun HF., Ying CS., Zhen X., Ping S., 2010, Extended Case-based reasoning for Intelligent System Configuration. Second International Conference on Computer Modeling and Simulation. IEEE Computer Society. 307-309

 

Keung JW., dan Nguyen T., 2010, Quantitative Analysis for Non-linear System Performance Data using Case-based Reasoning. Asia Pacific Software Engineering Conference. IEEE Computer Siciety. 346-355

 

Kolodner J., 1983, Reconstructive memory, a computer model. Cognitive Science 7, 281-328

 

Kolodner J., Simpson R.L., Sycara K., 1985, A process model of case-based reasoning in problem solving. IJCAI-85

 

Kolodner J., 1987, Capitalizing on failure through case-based inference. Proceedings Ninth Annual Conference of the Cognitive Science Society. Erlbaum

 

Koton P., 1988,  Using experience in learning and problem solving. Ph.D. Thesis. Computer Science Dept. MIT

 

Leake, D., 1996, Case-Based Reasoning : Experiences, Lessons, and Future Directions. Menlo Park : AAAI Press/MIT Press

 

Mantaras R.L., Mcsherry D., Bridge D., Leake D., Smyth B., Craw S., Falting B., Maher M.L., Cox M.T., Forbus K., Keane M., Aamodt A., Watson I., 2006, Retrieval, reuse, revision and retention in case-based reasoning, The Knowledge Engineering Review, Vol. 20:3. 215-240, Cambridge University Press, United Kingdom.

 

Minghai Y., dan Huanmin X., 2010, The Weight Calculation in the Case-Based Reasoning Based on Sensitivity Analysis. International Conference on Electrical and Control Engineering. IEEE Computer Society. 3119-3121

 

Na F., Jinmin W., Ping L., Suchang M., 2011, Optimal Vendor Selection Using Fuzzy Case Based Reasoning. Fourth International Conference on Intelligent Computation Technology and Automation. IEEE Computer Society. 1082-1084

 

Navinchandra D., 1988, Case-based reasoning in CYCLOPS, a design problem solver. In Kolodner (ed.): Proceedings Case-Based Reasoning Workshop, San Mateo, California, Morgan-Kauffman Publ.

 

Pearce M., Goel A., Kolodner J., Zimring C., Sentosa L., Billington R., 1992,  Case-based design support: A case study in architectural design. IEEE EXPERT 7, 14-20

 

Rissland E.L., 1983, Examples in legal reasoning: legal hypotheticals. Proceedings IJCAI’83, Karlsruhe

 

Schank R.C., 1982, Dynamic Memory: A theory of learning in computers and people. Cambridge University Press

 

Shi H., Xin, M., Dong W., 2011, A Kind of Case Similarity Evaluation Model Based on Case-based Reasoning. IEEE International Conference on Internet of Things, and Cyber, Physical and Social Computing. IEEE Computer Society. 453-457

 

Sun QF., Tan L., Wang L., Yu CC., 2010, Application of Case-Based Reasoning Technology in Decision-Making System of Rural New Energy Utilization. 3rd International Conference on Information Management, Innovation Management and Industrial Engineering. IEEE Computer Siciety. 235-239

 

Sycara E.P., 1987,  Resolving adversarial conflicts: an approach to integrating case-based and analytic methods. Ph. D. Thesis, Georgia Tech

 

Vacharaskunee S., dan Intakosum S., 2011, XML Document Recommendtion by Using Case-Based Reasoning, 11th ACIS International Conference on Software Engineering, Artificial Intelligence, Networking and Parallel/ Distributed Computing. IEEE Computer Society. 121-126

 

Veloso M., 1992,  Learning by analogical reasoning in general problem solving. Ph.D. Thesis. Carnegie Mellon University

 

Wei LZ., dan Li L., 2010, Research on Emergency Intelligent Decision Based on GIS ang Case-based Reasoning. International Conference on System Science, Engineering Design and Manufacturing Informatization. IEEE Computer Society. 231-234

 

Pengalaman Penelitian           :

No.

Tahun

Judul Penelitian

Pendanaan

Sumber

Jumlah  (Juta Rp)

1. 2009 Data mining untuk menemukan pola pengetahuan konseling Psikologi Dikti (Hibah Doktor)

40

2. 2010 Implementasi Pengukuran Tingkat Kesamaan Kasus dengan Konsep Himpunan Fuzzy pada Penalaran Berbasis Kasus Dana Masyarakat

15

3. 2008 Penerapan Hidden Markov Model dalam Clustering Sequence dan Penentuan Subfamily protein globin Dana Masyarakat

10

4. 2007 Sistem Pendukung Keputusan untuk prediksi bibit lele dumbo Dana Masyarakat

8

Mhd. Reza Pulungan, Dr-Ing

civitas Wednesday, 9 May 2012

Judul : CONSTRUCTION OF MIXTURE-OF-MONOCYCLIC ERLANG REPRESENTATIONS FOR PHASE-TYPE DISTRIBUTIONS
Abstrak :

Pemodelan stokastik banyak digunakan dalam berbagai bidang. Salah satu model yang banyak digunakan adalah distribusi phase-type (PH). Distribusi PH sering digunakan pada teori antrian, teori reliabilitas, pemodelan kematian, dan lain-lain. Namun, seringkali model yang dibentuk dari permasalahan nyata menjadi terlalu rumit untuk dianalisis. Oleh karena itu, perlu dilakukan penyederhanaan terhadap model yang telah dibangun.

Penyederhanaan representasi dari distribusi PH dapat dilakukan dengan membuat jumlah transisi menjadi sesedikit mungkin. Salah satu representasi yang menggunakan konsep ini adalah representasi Mixture of Monocyclic Erlang (MME). Representasi ini dibangun dari penggabungan subgenerator yang dibentuk dari pole Laplace-Stieltjes Transform (LST) dari distribusi PH awal. Pole yang berupa bilangan real akan membentuk generator distribusi eksponensial, sementara pole kompleks akan membentuk generator yang disebut generator monocyclic erlang. Generator ini berupa rangkaian state dengan total transisi keluar yang sama, dengan setiap state hanya memiliki transisi menuju state yang ada di depannya, dan satu transisi balik dari state terakhir menuju ke state pertama.

Penelitian ini akan mengembangkan teori untuk mengubah sembarang representasi dari suatu distribusi PH menjadi representasi MME berdasarkan teori dasar invariant polytope. Dalam penelitian ini juga akan dibangun sebuah aplikasi yang mengimplementasikan teori yang telah dikembangkan.

 

Latar belakang   :

  1. 1.  Latar Belakang

Distribusi phase-type (Distribusi PH) merupakan sebuah model yang banyak digunakan dalam pemodelan stokastik, misalnya teori antrian (Asmussen, 1992), analisis resiko (Bladt, 2005), pemodelan kematian (Liu, 2008), dan teori reliabilitas. Distribusi PH banyak digunakan, karena model ini dapat menampilkan properti dan karakter khusus dari model, yang memudahkan dalam analisis. Untuk itu, perlu dibuat suatu representasi, yang mampu menampilkan properti dan karakter tersebut.

Suatu distribusi PH terdiri dari rangkaian state dan transisi. Suatu matriks dapat dibentuk sebagai representasi dari distribusi PH tersebut, di mana setiap elemen diagonal pada matriks menunjukkan total nilai transisi keluar (total outgoing rate) dari suatu state pada distribusi PH, dan elemen lain menunjukkan transisi antar state pada distribusi PH. Representasi ini juga memuat probabilitas awal untuk setiap state. Dengan representasi yang berupa matriks, maka muncul suatu permasalahan, yaitu apabila terdapat jumlah state yang sangat banyak (state-space explosion). State-space explosion merupakan permasalahan saat melakukan komposisi, yaitu jumlah state hasil komposisi adalah hasil cross product dari jumlah state semua subsistem yang dikomposisikan.Sebagai contoh, suatu sistem mempunyai 100 state dan sistem lain mempunyai 150 state, jika dilakukan komposisi maka akan menghasilkan sebuah sistem dengan jumlah state sebanyak 15.000 buah. Apabila jumlah subsistem yang dikomposisikan semakin banyak, maka jumlah state akan bertambah dengan sangat cepat. Bentuk fungsi distribusi dan kepadatan dari suatu distribusi PH dinyatakan dalam suatu bentuk eksponensial matriks, yang dalam perhitungannya memiliki kompleksitas yang tinggi. Dengan jumlah state yang sangat banyak, tentu pemrosesan akan menjadi lambat, dan memakan banyak memori komputer yang berakibat buruk pada unjuk kerja analisis distribusi PH tersebut. Oleh karena itu sangat dibutuhkan agar jumlah state dalam suatu distribusi PH menjadi sesedikit mungkin.

Jumlah state dalam suatu distribusi PH dapat menjadi sangat banyak. Agar dapat diperoleh distribusi PH yang dapat digunakan, maka diperlukan suatu representasi, yang dapat dihitung dalam waktu yang dapat ditolerir. Untuk mencapai kondisi ini, salah satu cara yang digunakan adalah dengan mereduksi jumlah state dalam distribusi PH tersebut. Untuk itu, telah dilakukan beberapa penelitian. Aldous dan Shepp (1987) mencari batas jumlah state minimal yang diperlukan untuk suatu distribusi PH. Markovski dan Trčka (2006) menggunakan metode lumping untuk mereduksi jumlah state dalam distribusi PH. He dan Zhang (2008) meneliti mengenai algoritma untuk membentuk representasi Coxian (Cox, 1955) yang minimal dari suatu distribusi PH.

Meskipun begitu, sampai saat ini belum ada cara untuk secara pasti menghasilkan representasi minimal dari suatu distribusi PH. Oleh karena itu, muncul gagasan untuk membuat suatu distribusi PH bukan dengan jumlah state yang minimal, namun memiliki transisi sesedikit mungkin. Salah satu representasi yang dikembangkan adalah representasi yang disebut Mixture of Monocyclic Erlang (MME) oleh Mocanu dan Commault (1999). Representasi ini memiliki struktur yang sangat sederhana. State disusun secara urut menurut total transisi keluarnya. Setiap state memiliki satu transisi ke depan, yaitu ke state berikutnya. Transisi balik hanya mungkin terjadi pada rangkaian state yang memiliki total transisi keluar yang sama, yaitu dari state paling akhir menuju state paling awal dari rangkaian state yang memiliki total transisi keluar yang sama. Dengan didapatnya jumlah transisi yang sedikit, diharapkan meskipun jumlah state yang ada tidak minimal, namun waktu yang digunakan dalam pemrosesan masih dapat ditolerir.

Pengembangan representasi MME ini sebenarnya merupakan ide yang cukup baik dalam penggunaan distribusi PH. Namun sampai saat ini, belum ada aplikasi untuk membentuk representasi distribusi PH ke dalam representasi MME, yang dapat digunakan dengan mudah. Aplikasi yang telah ada sebelumnya masih memiliki banyak sekali kekurangan, baik dari segi kemudahan penggunaan, maupun dalam sisi kebenaran output. Oleh karena itu, dirasa perlu untuk melakukan pembuatan aplikasi yang mampu digunakan untuk mengubah representasi suatu distribusi PH ke dalam representasi MME, yang mudah digunakan dan menghasilkan output yang benar.

 

Tujuan Penelitian :

Tujuan penelitian ini adalah:

1. Mengembangkan teori yang mendasari transformasi dari sembarang representasi suatu distribusi PH ke representasi MME yang didasarkan pada teknik invariant polytope.

  1. Membangun suatu prototipe implementasi dari teori yang telah dikembangkan tersebut.

 

Luaran :

Penelitian ini ditargetkan menghasilkan luaran berupa: software untuk transformasi representasi suatu distribusi PH menjadi representasi MME dan publikasi di konferensi internasional.

 

Studi literatur :

Neuts (1981), memperkenalkan phase-type distribution sebagai distribusi penggunaan waktu dalam rantai Markov, yang memiliki jumlah state yang terbatas, dan time-homogeneous. Neuts memperkenalkan distribusi PH sebagai sebuah alat untuk menyatukan berbagai macam model stokastik dan untuk membangun model baru yang dapat menghasilkan analisis yang algoritmik.

O’Cinneide (1990) memberikan beberapa properti yang dimiliki oleh distribusi PH. O’Cinneide menyatakan bahwa apabila jumlah state dalam distribusi PH sama dengan nilai algebraic degree dari distribusi PH tersebut, maka distribusi PH tersebut sudah dalam representasi yang minimal. Algebraic degree didefinisikan sebagai pangkat terbesar pada polinomial penyebut dari transformasi Laplace Stieltjes (LST), di mana LST tersebut sudah tidak dapat direduksi lagi. O’Cinneide juga menyatakan bahwa suatu distribusi merupakan distribusi PH apabila density function-nya bernilai positif, serta ada satu pole real dari LST yang terbesar dari semua bagian real pada semua pole LST.

Commault dan Chemla (1996) menunjukkan bahwa jumlah state minimal yang harus dikunjungi dalam suatu distribusi PH sebelum mencapai absorbing state dapat diketahui dari pembilang dan penyebut dari transformasi Laplace Stieltjes (LST) dari distribusi PH tersebut (pembilang dan penyebut dalam LST berupa polinomial). Jumlah state minimal yang harus dikunjungi ini adalah sejumlah selisih pangkat tertinggi antara penyebut dan pembilang dari LST.

Penelitian untuk mencari representasi dari distribusi PH yang dapat digunakan dalam waktu yang dapat ditolerir masih terus dilakukan. Ada beberapa metode yang dikembangkan, yaitu mencari representasi yang memiliki jumlah state minimal, dan ada yang mencari representasi dengan jumlah transisi yang minimal. Markovski dan Trčka (2006) melakukan penelitian mengenai penggunaan metode lumping pada rantai Markov yang memiliki silent step. Prinsip kerja metode lumping pada dasarnya adalah mencari sejumlah state dengan sifat yang mirip, lalu menggabungkannya menjadi satu state tunggal tanpa mempengaruhi sifat-sifat dari rantai Markov aslinya. Sementara, silent step dalam sistem yang dinamis adalah sebuah langkah yang dianggap tidak terlihat, dan dapat dihilangkan. Pencarian representasi distribusi PH dengan jumlah state yang minimal menjadi masalah yang hingga kini belum terselesaikan. Beberapa penelitian mulai mengarah pada bagian tertentu dari distribusi PH, yaitu acyclic phase-type distribution (distribusi APH). Suatu distribusi APH didefinisikan sebagai distribusi PH yang tidak memiliki transisi balik. He dan Zhang (2006) mengembangkan suatu algoritma untuk mencari representasi bidiagonal dari suatu distribusi PH dan Matrix Exponential distribution. Algoritma yang dikembangkan ini disebut Spectral Polynomial Algorithm, dan disusun menggunakan spektrum dari representasi aslinya.

He dan Zhang (2008) merancang suatu algoritma untuk menyusun representasi Coxian yang dengan jumlah state yang minimal, untuk suatu distribusi PH, yang transformasi Laplace-Stieltjes-nya hanya memiliki pole yang berupa bilangan real.

Pulungan (2009) merancang suatu algoritma untuk mereduksi jumlah state pada distribusi APH. Prinsip kerjanya adalah dengan mengurangi state pada distribusi APH satu per satu, hingga jumlah state tidak dapat dikurangi lagi tanpa membuatnya menjadi distribusi non-PH. Algoritma ini menghasilkan representasi yang hampir pasti minimal.

Sebagai alternatif, dari representasi dengan jumlah state yang minimal, pencarian representasi dari distribusi PH yang dapat digunakan dengan waktu yang dapat ditolerir dilakukan dengan mencari representasi yang memiliki jumlah transisi yang minimal. Mocanu dan Commault (1999) merancang algoritma untuk mengubah bentuk suatu distribusi PH ke dalam suatu bentuk yang sparse, yang disebut bentuk monocyclic, serta membuktikan bahwa semua bentuk distribusi PH memiliki representasi MME (Mixture of Monocyclic Erlang) yang merupakan kombinasi dari bentuk monocyclic.

Penelitian yang akan dilakukan ini merupakan implementasi dari algoritma yang dirancang oleh Mocanu dan Commault untuk mengubah representasi dari suatu distribusi PH menjadi representasi MME. Dalam penelitiannya, Mocanu dan Commault telah membuktikan secara matematis bahwa metode yang dikembangkan berhasil membuat representasi MME dari distribusi PH yang ekuivalen dengan distribusi PH aslinya. Implementasi dari algoritma yang dirancang oleh Mocanu dan Commault ini akan memberikan verifikasi hasil, yaitu untuk melihat apakah dalam penerapannya, representasi yang dihasilkan merupakan suatu distribusi PH yang sama dengan distribusi PH aslinya.

 

Metode Penelitian

 

Metode penelitian yang digunakan pada penelitian ini dimulai dengan studi pustaka untuk mempelajari konsep-konsep mengenai distribusi PH dan representasi MME. Studi literatur dilakukan dengan mengumpulkan dan mempelajari berbagai referensi dalam bentuk buku, jurnal, laporan penelitian, dan tugas akhir, mengenai teori-teori yang dibutuhkan dalam penelitian ini. Adapun teori yang dibutuhkan meliputi teori dasar phase-type distribution, pembentukan representasi MME, dekomposisi matriks, dan perhitungan eksponensial matriks.

Bahan dan alat yang digunakan dalam penelitian ini berupa literatur-literatur, baik berupa jurnal maupun buku-buku yang berhubungan dengan distribusi PH dan representasi MME. Perangkat lunak untuk pemrograman dan seperangkat komputer merupakan komponen pendukung utama pada implementasi solusi dan pengujian solusi nantinya.

Alur besar penelitian mengacu pada tahapan pengembangan sistem yang dapat dijabarkan sebagai berikut:

  1. 1.    Analisis masalah

Berdasarkan permasalahan utama, dilakukan analisis untuk mencari metode yang tepat untuk menyelesaikan permasalahan yang muncul dalam penyelesaian permasalahan utama. Permasalahan yang muncul dalam proses pembentukan representasi MME ini misalnya metode apa yang harus digunakan dalam pencarian akar-akar LST. Berdasarkan hasil studi literatur, terdapat beberapa macam metode yang dapat digunakan untuk menyelesaikan permasalahan-permasalahan tersebut. Analisis dilakukan untuk memilih metode yang sesuai untuk menyelesaikan permasalahan-permasalahan tersebut, dengan mempertimbangkan kemudahan implementasi, kompleksitas, dan akurasi masing-masing metode.

  1. 2.    Penyusunan solusi

Berdasarkan hasil analisis masalah, selanjutnya dilakukan penyusunan solusi. Penyusunan solusi ini meliputi penyusunan konsep baru yang digunakan untuk mendukung kebenaran dari solusi dan penerapan konsep baru yang diperoleh ke dalam sebuah algoritma baru. Penyusunan konsep baru dilakukan dengan memperhatikan konsep-konsep matematis sehingga dapat dipertanggungjawabkan secara matematis. Sedangkan algoritma baru yang terbentuk merupakan penerapan dari konsep baru yang diperoleh.

  1. 3.    Implementasi solusi

Tahap implementasi ini bertujuan untuk menyusun suatu aplikasi sederhana yang mampu menyediakan solusi bagi permasalahan utama, yaitu membentuk representasi MME dari PH distribution. Implementasi dilakukan dalam bentuk pemrograman dengan menggunakan bahasa pemrograman Java.

  1. 4.    Pengujian solusi

Pengujian dilakukan untuk mengetahui kemampuan sistem dalam menyelesaikan permasalahan. Pengujian dilakukan untuk mengetahui apakah sistem mampu menyelesaikan permasalahan utama, yaitu membentuk representasi MME dari distribusi PH, serta mencari batasan dari kemampuan sistem dalam penyelesaian masalah.

Mardhani M. Riasetiawan

civitas Wednesday, 9 May 2012

Judul : GAMAcloud V 1.0 [a cloud technology architecture on the box]
Abstrak :

Technology research and business events needs support and services from information technology infrastructure with reliable and qualified levels. The cloud technology open the opportunities for enterprises and organizations to take the potential capacity and challenge for discovering the new research area and business channels. The cloud technology needs to address the challenge on high performance computation and large volume data managements. This delivering the challenge to launch the cloud architecture that well-design and well-implemented for bridging the gaps between research activities and business matters.
CloudBox is the design of cloud technology platfrom in the single box. CloudBox developed with reusable technology from the un-used PC and configure as single architecture of machines. The research use three development phases. The phase on cluster collection model is design to implement cluster environment in many node. The phase on cluster on the box will implement the architecture single architecture to run the cluster environment. The phase called cloud in the box is establishing the prototype of single system on the box. We belive this approach will addressed the need of high performance technology environment in many purposes.

 

Latarbelakang:

The business environment has being change rapidly. Many area of business have being adapted the change of the technology, customer, trend, and lifestyle of their customers. It was happened because of the new communication channel between enterprise and customer without border. We has seen, how the social network has became the marketing channel, the newspaper became the campaign of the best and worst services of enterprises, and the blog became the references for buy several products.

 

The enterprise realized they cannot avoid the change, they need to transform and adapt the change into their business processes. The enterprise manage the change became the opportunities to scale up the business and scale out the sales strategies. The big enterprise, maybe just need to adjust the way how to implement their corporate strategies, but for small medium enterprise, they need to develop.

 

The change of business environment has open the challenge the small medium enterprise to be the same line with the enterprises. The face the competition head to head, and reach the potential customer across the loyal customer and new customer. The customer itself just seen how the can enjoy the services without big change of use.

 

The technology that called Cloud technology has responsibilities on this situation. The technology has the potential resource to help enterprises to compete the business and the risk to manage. Cloud technology has already used by enterprises in many ways. They use for marketing activities, to know the competitive products and service specification, to learn solve the problem and discuss the future directions. The SME is also need on the issues. They just need channel to deliver the idea, consult, do, monitor, and get advices.

 

The world of science is very dynamics. One innovations or discovery in one area is also will have many discoveries in other area. The innovation itself can count in every minute and every second. The innovation and scientific works have involving many data from many resources. Interdisciplinary or multidisciplinary research has needs on data collection, for example the needs on data share and use of data. The need of long term access and use of digital scientific data has become the major interest in every organization. The data also has become very sensitive when the data need to share and access for another organization. The data is also need to change because of the change on the data landscape, technological matters, and user needs of dynamic data.

 

The digital scientific data have previous and future challenges. The data that produce by research work need to answering the demand on data collaboration. The research need to work with other research, it can be similar or multidisciplinary research. It is a must, because the world now needs the problem solving research and high quality research. Lee Dirks (2009) giving the sample of the future needs of scientific digital data, for example is research reporting. The research reports now have characteristics. It must have multi perceptions and dynamically can be customized to each user. The report also can have an access and use, in the term of seeing or following the research workflows and outputs from the lab experiments. The report can be exported into an  electronic lab workbench in order to reconstruct the same or similar experiment. It is also giving capabilities to researcher working with multiple reports and having the ability to mash up data and workflows across experiments. The researches have facilities to implement new analyses methods and visualizations and to perform new experiments.

 

The digital scientific data is a proof of evidence. We need it as evidence of research experiments. We use digital data as proof of findings that presenting the high quality results. The data representing the work of the research, open opportunities for another research, and enable to enhance the previous research by developing better research in the future.

 

The scientific work has become very challenging and very important in every organization. The scientific work is running as research and development of new solutions, based on the organization subject. The Government needs scientific work to deliver the best, reliable and

accountable services to citizens. The enterprise needs scientific works to make sure they have new products and quality improvement on it. The Education sector has made scientific works as the leading environment in building academics atmosphere and culture.

 

There is transient information or unfilled demand for storage because of the growing of information. The Science 3.0 term now becomes the “hot” issues in scientific work. The challenge in this term is about the demand on data collaboration on scientific works. Multidisciplinary research is necessary; it needed to produces problem solving research, and high quality research. The Scientific technology is facing unique challenges to answer the needs of technology that can serve the exploding of digital data. The industry is giving the standard requirements on the long-term use and access of digital data. The need on data integration, annotation capabilities, provenance or quality of data, and security is the major issues to answer by Science 3.0 concepts .

 

In data grid environment, many large –scale scientific experiments, involving large data volume and simulations generate large data format, in the multiple site distributed storages. Furthermore, these data are shared between the researchers, research organizations, users, and

industries for data analysis, data visualization, and so forth. Several data replication techniques, including Globus toolkit , have been developed to support high-performance data accesses to the remotely produced scientific data. Data-intensive, high performance computing applications require the efficient management and transfer of terabytes or Petabytes of data in wide-area, and distributed computing environment. It also needs to be able to transfer large subsets of these datasets to local sites or other remote resources for processing. It is creating local copies or replicas to overcome long wide-area data transfer latencies. The data management environment must provide replication services, storing services, metadata services, security services such as authentication of users and control over who is allowed to access the data.

 

Data grid environment require distributed data intensive applications that met by the creation of a data grid infrastructure that provide a set of orthogonal, application- independent services that can then be combined and specialized in different ways to meet the specific requirements of applications. Data grid infrastructure can usefully build on capabilities provided by emerging Grid said Foster and Kesselman (2009), such as resource access, resource discovery, and authentication services. Digital information collections are heterogeneous, vast and growing at rate that out spaces from our ability to manage and preserve them.

 

Increasing amount of information are being created and maintained in digital format, includes objects from virtually every discipline and type. All of these objects need to be preserved and maintained for long term periods, be it out of legal requirements, and represented the basis of business models, the constitute valuable cultural heritage, need of the evidence and proof of scientific experiments, and personal reasons and value.

 

Studi Literatur :

The nature of the digital data to be managed will change. The data archives manage relatively few, large datasets. The data holdings mostly comprise simple forms of data. The public archive and libraries rarely archive digital objects. There is large number of system environments to address, technology changes fast, making formats, hardware and media obsolete. In the future, data archive will be called to manage additionally large numbers of small datasets. There will be demand to hold more complex data objects and interrelated or interdependent collections of objects. The public archives and libraries will have to handle vast numbers of small digital objects. The numbers of environment will continue grow, as nobody will “uninvent” old environment which spawned data. There is no reason to suspect this rate change will decrease, it may even accelerate.

 

The world of science is very dynamics. One innovations or discovery in one area maybe will have

some discovery in other area. The innovation itself maybe can count in every minute and every second. The scientific works also involving many data from many resources. Interdisciplinary or multidisciplinary research has some needs on data collection, for example, the needs on data share or use same sources of data. The scientific data has become massive and rapidly growing following the development and the rapid growth of scientific works. IDC (2005) has reported in The Exploding Digital Universe Report describe that the digital universe will grow 1—fold in five years, from about 160-170 Exabytes in 2006 to >16,000 Exabytes in 2011, the rse. The reports also have found that needs of storage and the growing of information will be increase.

 

In the year 2005 a new particle accelerator, the Large Hadron Collider (LHC), is scheduled to be in operation at CERN, the European Organization for Nuclear Research. In this project, they have produced Four High Energy Physics (HEP) experiments to produce several Petabytes of data per year over a life time of 15 to 20 years. CERN focused on establishment of the technology components for the implementation of new world-wide Data grid and demonstrated the effectiveness of this new technology through the large scale deployment of end to end application

experiments involving the real users. They have demonstrated the ability to build, connect and effectively manage large general-purpose, data intensive computer clusters constructed from low cost components.

 

They are few more projects related with Grid Data projects. Globus and Legion, which were directed towards computational grids but now also adding support for distributed data management and integrating this with the infrastructures. Globus itself produced Global Access to

Secondary Storage (GASS) API, the component of the toolkit which performs tasks related to data management. It is limited to providing remote file I/O operations, management of local file caches and file transfers in a client- server model with support for multiple protocols.

 

The Particle Physics Data Grids project is focused on developing a grid infrastructure which can  support high speed data transfers and transparent access . It addresses replica management, high performance networking and interfacing with different storage brokers. The Grid Physics Network project has goal to pursue an aggressive program of fundamental IT research focused on realizing the concept of virtual data. Storage Request Broker addresses issues related to providing a uniform interface to heterogeneous storage systems and accessing replicated data over multiple sites. It provides ways to access data sets based on their attributes rather than physical location using metadata catalog.

 

The main initiatives of this research are looking at data management and preservation issues in data grid environment, and work in collaboration with these on-going efforts, and use the middleware developed by them if it satisfies our requirements. The most important is at a system which would integrate or interact with these researches so that end-users can benefit form the efforts being put in form all over the globe.

 

The word Science 3.0 actually is similar with Web 3.0. The word Science 3.0 has named for representing the next generation of scientific works. The implementation of Science 3.0 in research work can explain by samples in the research reporting methods. Lee Dirks, 2009 IS giving the sample of the future needs of research reporting. The Science 3.0 can enable what we call as live research reports. The reports have multi perceptions and dynamically can be customized to each user. The report also can have an access and use, in the term of seeing or following the research workflows and outputs from the lab experiments. The report can be exported into an electronic Lab workbench in order to reconstruct the same or similar experiment. It is also giving capabilities to researcher working with multiple reports and having the ability to

mash up data and workflows across experiments. The researches have facilities to implement new analysis methods and visualizations and to perform new experiments.

 

In technological environment, the demand on scientific work environment is the infrastructure that can manage massive, large and distributed computing processes. It is involving many large volume scientific works, involving huge data volume and simulations to generate and rendering large data. The data were share and open between the scientists, research enterprises, end-users, and industries. Several application projects to support the scientific collaboration have already existed. The open source software is one sample how the collaboration can produces the high quality software. The collaboration in the software development that shown in SourceForge is showing us from the beginning of project, every steps of developments, and the release or publishing the products involving the communities.

 

Metode  :

The design architecture will explain the system architecture of the frameworks, the software architectures, and implementation. The architecture adapted from Science-Forge research that introduced a collaborative scientific framework design. The system architectures is consist of three components; there application, framework application, PC based cluster, and storage. Storage is the component that handling the data archives process. The storage works under the framework to manage and execute the dynamic data presentation. The main component is the framework application. It is handled the data collection activities, data processing and give the direction the data archive to storage. Access interface is use for managing the data administration from users to access the data. It is functionally important to make sure the data is accessible secure methods. Access node is components to verify and the data presenting to users as needed.  We use develop PC Based Cluster in the implementation to run the system design architectures. We use MySQL Cluster as storage, and GForge system for framework application. The implementation of PC based cluster is using the MPI configuration to allow the workload of the process and allocates the activities.

 

Design :

we defined workload management for distributed scheduling and resource management. Data management develops and integrates tools and middleware infrastructure to manage and share large data volume in high-throughput production-quality grid environment.

Workload management consist of two major components, they are data management and preservation and monitoring services. Data management and preservation is managing the storing, access, and preservation tack for each of data. The monitoring services giving the evaluation and logs when the data failed in each of the task. We have used Globus Middleware services to monitoring and enabling end-user and administrator access to status and error information in data grid environment. Physical fabrics layers consist of fabric management work packages, networking packages and mass storage management packages. The management packages support for everything from the compute and network hardware up through the operating system, workload and application software. The network package use network infrastructure in laboratories to provide virtual private network between the computational and data resources forming data grids testbed. Mass storage management interfacing existing mass storage management system to multiple site grid data management system.

Hasil yang diharapkan :

The research result will consist of

  1. Two prototype products, there are:

a. Cluster on the box, that we called GamaCloudBox v.0.1

b. GamaBox v.1.0

  1. One Paper Conference (submission)

 

Janoe Hendarto, M.Kom

civitas Wednesday, 9 May 2012

Judul : Eksplorasi Pola Fraktal untuk Pembuatan Motif Batik
Abstrak :

Penggunaan pola fractal semakin luas terutama untuk bidang seni, animasi dan disain grafis. Penggunaan batik sudah semakin luas, tidak hanya pada kain tapi juga pada kayu, kulit, gerabah dan lain lain, Sehingga diperlukan motif yang banyak dan beragam. Kelebihan dari gambar atau pola fraktal adalah mempunyai ragam yang sangat kaya, yang mudah diperoleh hanya dengan mengadakan perubahan sedikit pada parameternya serta sifat pola fractal yang self-similarity yaitu bentuk umum tidak berubah pada setiap tingkat pembesaran/zooming.

Pertama, akan dibahas bagaimana mendapatkan pola fraktal yang mengandung nilai seni dan cocok untuk motif batik seperti pola pada himpunan Mandelbrot, himpunan Julia, segitiga Sierpinski dan lainnya, kemudian dicari algoritma untuk melakukan eksplorasi pola fraktal tersebut antara lain dengan proses zooming pada area gambar tertentu yang dipilih. Dan akhirnya, dibuat program komputer yang mampu melakukan eksplorasi pola fraktal yang menghasilkan banyak file gambar yang dapat digunakan untuk motif batik, kemudian dilakukan uji coba dan analisis terhadap hasil programnya.

Latar belakang :

Fraktal adalah bidang geometri yang mengupas dan dapat menjelaskan hal-hal yang alamiah (natural), yang mana semakin hari semakin berkembang seiring perkembangan teknologi komputer dan keinginan manusia untuk mengungkap rahasia alam semesta. Dengan menggunakan fraktal dapat dirancang/dibuat gambar-gambar tiruan objek alam seperti pohon, gunung, batuan, awan, permukaan bumi/planet dan lain-lainnya. Perancangan tersebut dilakukan dengan menggunakan beberapa transformasi sederhana yang disebut sistem fungsi iterasi (iterated function system) yang disingkat SFI, titik tetap/atraktor dari sistem fungsi iterasi inilah yang berupa gambar kompleks yang bisa berbentuk objek alam yang mirip sebenarnya (Barnsley, 1988).

Objek fractal juga banyak ditemukan pada fenomena matematis, seperti pada himpunan Mandelbrot, himpunan Julia, segitiga Sierpinski dan lain-lainnya, yang mana pola/gambarnya sangat beragam dan cukup indah yang selama ini belum banyak dimanfaatkan. Batik adalah kerajinan khas Indonesia, yang perkembangannya saat ini cukup bagus dan sudah dikenal luas di dunia, akan tetapi motifnya masih terbatas. Pada penelitian ini, akan dicoba eksplorasi pola-pola fractal yang kiranya cocok digunakan untuk motif batik, sehingga diharapkan dapat memperkaya motif batik Indonesia.

Tujuan Riset :

Melakukan eksplorasi pola fractal yaitu dengan membuat program komputer yang mampu melakukan zooming pada daerah gambar yang dipilih serta menyimpan hasil zooming dalam suatu file gambar, sehingga dihasilkan banyak file gambar yang diharapkan dapat digunakan untuk memperkaya motif batik Indonesia.

Keutamaan Riset :

Penelitian tentang batik fractal sudah banyak dilakukan, akan tetapi kebanyakan penelitian tentang bagaimana merancang motif batik yang sudah ada (motif Yogyakarta, Surakarta, Tegal, dan yang lainnya) dengan menggunakan metode fractal sehingga didapat motif-motif varian yang pola dasarnya adalah batik Indonesia. Pada penelitian ini, akan dilakukan eksplorasi pola fractal pada objek-objek fractal yang diharapkan akan mendapatkan motif batik baru, batik modern yang diharapkan akan memperkaya motif batik Indonesia.

Daftar Pustaka :

Barnsley, M., 1988, “Fractals Everywhere”, Academic Press, Inc., New York.

Finlay, M. dan Banton, K., 1993, “Real-World Fractals”, M&T Books, New York.

Hendarto J. dan Suprapto, 1996, “Penggunaan Pola Fraktal untuk Pembuatan Motif Kain”, Hibah penelitian jurusan Matematika FMIPA UGM.

Lam, A.D.K. dan Hsu Y., 2010, “Fractal Dimension of the Surface Shape of Textile Patterns,” mmit, vol. 1, pp.251-254, 2010 Second International Conference on MultiMedia and Information Technology, China.

Long X., Li W. dan Luo W., 2009, “Design and Application of Fractal Pattern Art in the Fashion Design,” iwcfta, pp.391-394, 2009 International Workshop on Chaos-Fractals Theories and Applications, China.

Lukman dkk., 2007, “Batik Fractal : Traditional Art to Modern Complexity “, Generative Art International Conferences, London.

Situngkir H., 2008, “The Computational Generative Patterns in Indonesian Batik”, Social Science Research Network, New York.

Yang Li dkk., 2009, “Innovative Batik Design with an Interactive Evolutionary Art System “, Journal of Computer science and Technology, pp. 1035-1047.

Pengalaman Penelitian :

No. Tahun Judul Penelitian Pendanaan
Sumber Jml (Juta Rp)
1 2007 Animasi Efek Tiupan AnginMenggunakan Fraktal Jurusan 7
2 2008 Kompresi dan Dekompresi Gambardengan Menggunakan Metode Fraktal Jurusan 10
3 2010 Penggunaan Pola Fraktal untuk Pengisian Area Gambar Prodi 15

Faizal Makhrus,M.Sc

civitas Wednesday, 9 May 2012

Judul : CHARACTER RECOGNITION MENGGUNAKAN METODE MULTI-NEURAL NETWORK
Abstrak :

Neural network merupakan salah satu metode yang digunakan di dalam pengenalan pola. Pola-pola yang dapat dikenali terbatas pada jumlah variasi pola dan arsitektur neural network itu sendiri. Pada umumnya, jumlah variasi yang sangat besar akan mengurangi ketelitian neural network dalam pengenalan. Oleh karena itu, riset ini akan menguji sebuah metode penggabungan lebih dari satu

neural network (multi-neural-network) untuk mengenali pola yang cukup bervariasi. Sebagai data percobaan, riset ini akan menggunakan data berupa gambar karakter yang akan dikonversi menjadi kode ASCII yang bersesuaian. Untuk mencapainya, gambar karakter akan dipecah menjadi beberapa bagian sesuai ukuran pixel-nya kemudian tiap bagian akan dilatih di dalam neural network yang berlainan dengan menggunakan metode Backpropagation. Output pelatihan dari tiap-tiap bagian akan dilatih ke dalam neural network lain yang berada satu tingkat di atasnya. Hasil yang diharapkan adalah dengan menggunakan metode ini semakin banyak variasi pola huruf yang dikenali jika dibandingkan dengan menggunakan satu neural network saja.

 

Anifuddin Aziz, M.Kom

civitas Wednesday, 9 May 2012

Judul : Ekstraksi aturan dari Jaringan Syaraf Tiruan menggunakan algoritma REANN dan C4.5
Abstrak :

Jaringan syaraf tiruan (JST) telah berhasil diterapkan dalam berbagai bidang seperti ekonomi, keuangan, pengenalan pola, prediksi, optimisasi, kendali, pemrosesan sinyal digital ,kedokteran.

Namun para ahli tidak puas hanya dengan tingkat akurasi yang tinggi yang ditunjukkan JST. Karena cara penalaran yang digunakan JST untuk mencari jawaban tidak dapat dilakukan dengan cepat, ini memberikan bukti perlunya untuk mengekstrasi pengetahuan yang terdapat pada JST terlatih dan menunjukkannya secara simbolik untuk menjustifikasi output nya.

Dalam penelitian ini akan digunakan algoritma REANN (Rule extraction from Artificial Neural Networks) dan C4.5 untuk mengekstrak aturan dari JST Backpropagation. Untuk menguji tingkat akurasi metode tersebut, dilakukan pengujian terhadap data iris, kanker payudara, dan diabetes dari UCI Laboratory.

 

Latar Belakang                        :

Jaringan syaraf tiruan (JST) telah berhasil diterapkan dalam berbagai bidang seperti ekonomi, keuangan (Alexandra, et al, 1998), pengenalan pola, prediksi, optimisasi, kendali, pemrosesan sinyal digital (Choy & Ersoy, 2000),kedokteran (Lisboa & Taktak, 2006) dan (Schetinin & Brazhnikov,2000). Namun para ahli tidak puas hanya dengan tingkat akurasi yang tinggi yang ditunjukkan JST. Karena cara penalaran yang digunakan JST untuk mencari jawaban tidak dapat dilakukan dengan cepat, ini memberikan bukti perlunya untuk mengekstrasi pengetahuan yang terdapat pada JST terlatih dan menunjukkannya secara simbolik untuk menjustifikasi output nya. Pada umumnya seorang ahli mengambil keputusan berdasarkan argumen yang yang diekspresikan dalam bentuk kondisional. Mengekstraksi aturan “IF-THEN” dari jaringan terlatih untuk menjelaskan penarikan kesimpulan jawaban jaringan adalah teknik yang paling banyak digunakan. Dengan adanya aturan ini akan meningkatkan penerimaan ahli terhadap model koneksi yang lebih umum (Sarhan, et al, 2005).

Dalam beberapa tahun terakhir, banyak penelitian tentang ekstraksi aturan dari JST yang terlatih. Banyak metode yang muncul untuk mengekstraksi JST terlatih menjadi aturan “IF THEN” (Campos & Ludermir, 2005). Ekstraksi aturan dari JST terlatih, tidak hanya pada sistem KBANN, namun juga dilakukan pada sistem pakar yang menggunakan JST untuk melakukan akuisisi pengetahuan. JST yang telah dilatih dengan sekumpulan data lalu diekstrak pengetahuannya dalam bentuk aturan IF-THEN dan kemudian dijadikan sebagai basis pengetahuan sistem pakar. Beberapa algoritma untuk mengekstraksi aturan dari JST terlatih telah diterapkan, antara lain : NeoroRule oleh Setiono (1996), FERNN (Fast Extraction of Rules from Neural Networks ) oleh Setiono dan Leow (2000), REANN (Rule extraction from Artificial Neural Networks)  oleh Kamruzzaman dan Islam  (2005),  Literal dan ProRulext oleh Campos, dan Ludermir (2005), FCANN (Formal Concept Analysis Neural Networks ) oleh Dias, et al (2008), AIS (Artificial immune systems) oleh Kahramanli dan Allahverdi (2009), TREPAN oleh Weckman, et al (2010),  LREX pada JST DCS (Dynamic cell structure) oleh Sheikhan dan Khalili (2010),REBC (Rule extraction from ANN based on Clustering) oleh Ma et al(2009), RULEX oleh Shen dan Wang  (2010), REFANN oleh Setiono (2010).

Dalam penelitian ini akan dikembangkan suatu metode ekstraksi aturan yang merupakan modifikasi dari algoritma REANN yang dikembangkan Kamruzzaman dan Islam (2005).

Pada penelitian Kamruzzaman dan Islam (2005), REANN diterapkan pada beberapa masalah klasifikasi seperti kanker payudara, iris mata, diabetes. Dan menunjukkan keefektifan dari penggunaan algoritma tersebut dengan hasil yang secara umum baik. Pada penelitian tersebut, REANN menunjukkan tingkat akurasi yang lebih baik dari pada C4.5, NN Rules, CART, dan OC1. REANN yang diusulkan Kamruzzaman terdiri dari enam langkah, yaitu : pertama, membuat arsitektur JST awal; kedua, melakukan pemotongan (pruning) jaringan terhadap node yang tidak penting; ketiga, diskritisasi nilai keluaran node hidden; keempat, membuat aturan dengan algoritma Rex; kelima, menghilangkan aturan yang redundan; keenam, mengevaluasi aturan, jika akurasi tidak baik, ulangi ke langkah kelima

Dalam penelitian ini modifikasi terhadap algoritma REANN dilakukan dengan menggunakan algoritma C4.5 untuk menggantikan algoritma Rex dalam membuat aturan. Untuk menguji metode tersebut, dalam penelitian ini digunakan suatu data pengujian yang diambil dari UCI repositori, yaitu data Iris, Diabetes, dan Kanker payudara.

Tujuan Riset    :

Mengembangkan metode ekstraksi aturan JST menggunakan algoritma REANN dan C4.5.

Keutamaan Riset         :

Pada saat ini telah banyak dikembangkan algoritma untuk ekstraksi aturan dari JST terlatih, diantaranya adalah REANN. Tahap akhir algoritma REANN adalah pembentukan aturan menggunakan algoritma Rex yang bersifat heuristik. Sementara itu, terdapat Algoritma C4.5 yang merupakan salah satu algoritma pembentuk aturan berbasis pohon keputusan yang telah banyak digunakan dengan hasil yang baik.

Pada penelitian ini akan digunakan algoritma C4.5 untuk menggantikan algoritma Rex untuk pembentukan aturan, yang merupakan tahap akhir pada algoritma REANN.

 

Daftar Pustaka                        :

 

Fausett, L., 1994, Fundamentals of neural networks : architectures, algorithms, and applications, Prentice-Hall, Inc, New Jersey

Larose, D.T. (2005). Discovering Knowledge in Data: an Introduction to Data Mining. John Wiley and Sons, USA

Turban, E., Aronson, J.E., Liang, T.P., 2005, Decision Support Systems and Intelligent Systems, Penerbit Andi, Yogyakarta

Alexandra, C., Cristea, P., Okamoto, T., 1998, Neural Network Knowledge Extraction Rev.Roum.Sci.Techn. – Électrotechn.et Énerg.,43, 1 , p. , Bucharest

Bae, J.K., Kim., J., 2011, Combining models from neural networks and inductive learning algorithms, Expert Systems with Applications (2011) Volume: 38, Issue: 5, Publisher: Elsevier Ltd, Pages: 4839-4850

Berry, M.J.A., Linoff, G.S. (2004). Data Mining Techniques For Marketing, Sales, and Customer Relationship Management Second Edition. Wiley Publishing, Inc. Indianapolis, Indiana

Chiou, Y.C., 2006, An artificial neural network-based expert system for the appraisal of two-car crash accidents, Accident Analysis and Prevention 38 (2006) 777–785

Choe, W., Ersoy, O.K., 2000, Detection of Rare Events and Rule Extraction by Neural Networks and Decision Trees, ECE Technical Reports. Paper 18.

Craw, S. (2005). Case Based Reasoning : Lecture 3: CBR Case-Base Indexing.Diakses pada 1 Mei 2011 dari www. comp.rgu.ac.uk/staff/smc/teaching/cm3016/Lecture-3-cbr-indexing.ppt

Dias, S.M., Nogueira, B.M., Z´arate, L.E., 2008, Adaptation of FCANN Method to Extract and Represent Comprehensible Knowledge from Neural Networks, New Chall. in Appl. Intel. Tech., SCI 134, pp. 163–172

Goyal, R.D., 2007,   Knowledge Based Neural Network for Text Classification, IEEE International Conference on Granular Computing

Hannan, S.A., Baghile, V.D., Manza, R.R., Ramteke, R.J.,  2010, Diagnosis and Medical Prescription of Heart Disease Using Support Vector Machine and Feedforward Backpropagation Technique, (IJCSE) International Journal on Computer Science and Engineering Vol. 02, No. 06, 2010, 2150-2159

Hudson, B.D., Whitley, D.C., Browne, A., Forda, M.G., 2005, Extraction of Comprehensible Logical Rules from Neural Networks : Application of TREPAN in Bio and Chemoinformatics, Croatica Chemica Acta, CCACAA 78 (4) :561

Jouyban, A., Soltani, S., Zeynali, K.A., 2007, Solubility Prediction of Drugs in Supercritical Carbon Dioxide Using Artificial Neural Network, Iranian Journal of Pharmaceutical Research (2007), 6 (4): 243-250

Kahramanli, H., Allahverdi, N., 2009, Rule extraction from trained adaptive neural networks using artificial immune systems, Expert Systems with Applications 36 , 1513–1522

Kai, S., Hui-ping, N., 2009, Research of Pathology Expert System Based on Artificial Neural Network, International Forum on Computer Science-Technology and Applications

Kamruzzaman, S.M., Islam, M.M., 2005, Extraction of Symbolic Rules from ANN, Proceedings of World Academy of science, Engineering and Technology Volume 10 Desember 2005 ISSN 1307-6884

Kim, H.S., Koc, M., Ni, J., 2007, A hybrid multi-fidelity approach to the optimal design of warm forming processes using a knowledge-based artificial neural network, International Journal of Machine Tools & Manufacture 47 (2007) 211–222

Maclin, R., Shavlik, J.W., 1993, Using Knowledge-Based Neural Networks to Improve Algorithms: Refining the Chou-Fasman Algorithm for Protein Folding, Machine Learning, 11, 195-215

Malone, J., McGarry, K., Wermter, S., Bowerman, C., 2005, Data mining using rule extraction from Kohonen self-organising maps, Neural Comput & 15: 9–17

Mendyk, A., Jachowicz, R., 2010, Decision Support Systems for Pharmaceutical Formulation Development Based on Artificial Neural Networks, Decision Support Systems, Intech, Croatia

Ozbakir, L., Baykasoğlu, A., Kulluk, S., 2010, Rule extraction from artificial neural networks to discover causes of quality defects in fabric production, Neural Computing and Applications, Springer-Verlag London Limited

Rajanikanth , M., Hussain , M.A., 2011, Diagnosis and Medical Prescription of Diabetes Using Support Vector Machine and Feedforward Backpropagation Technique, International Journal of Research and Reviews in Artificial Intelligence (IJRRAI) Vol. 1, No. 2, June 2011 ISSN: 2046-5122

            Serpen, G., Tekkedil, D.K., 2008, A knowledge-based artificial neural network classifier for pulmonary embolism diagnosis, Journal Computers in Biology and Medicine Volume 38 Issue 2

Setiono, R., 1995, A penalty function approach for pruning feedforward neural networks, Neural Computation, 8, 1, 185-204.

Setiono, R., Leow, W.K., 2000, FERNN: An Algorithm for Fast Extraction of Rules from Neural Networks, Applied Intelligence 12, 15–25, Kluwer Academic Publishers. Manufactured in The Netherlands

Silva, A.A., Gerhardt, G.J.L., Echeverrigaray, S., 2011, Rules extraction from neural networks applied to the prediction and recognition of prokaryotic promoters, Genetics and Molecular Biology, 34, 2, 353-360

Springer-Verlag Berlin Heidelberg

Sratthaphut,L., Phaechamud,T., 2011, Prediction of drug dissolution and hardness of indomethacin tablets using artificial neural networks and partial least-squares, Research Journal of Pharmaceutical, Biological and Chemical Sciences

Srivastava, L., Singh, S.N., Sharma, J., 1999, Knowledge Based Neural Network for Voltage Contingency Selection and Ranking, IEEE Proc.-Gener. Transm. Distrib., Vol 146

Steiner, M.T.A., Neto, P.J.S., Soma, N.Y., Shimizu, T., Nievola, J.C., 2006, Using Neural Network Rule Extraction for Evaluation Credit-Risk Evaluation,  IJCSNS Vol 6 No 5A

Towell, G.G., Shavlik, J.W., 1994, Knowledge-Based Artificial Neural Networks, Appears in Artificial Intelligence, volume 69 or 70

Sheikhan, M., Khalili, A., 2009, Rule Extraction from Dynamic Cell Structure Neural Networks, World Applied Sciences Journal 7 (Special Issue of Computer & IT): 54-58

Ushaa, S.M., Madhavilatha, M., Rao, G.M. 2011,  Modified Neural Network Architecture based Expert System for Automated Disease Classification and Detection using PCA Algorithm, International Journal of Engineering Science and Technology (IJEST), Vol. 3 No. 9

Weckman G.R., Millie D., Ganduri, C., Rangwala, M., Young, W., Rinder, M., Fahnenstiel G.L., 2009, Knowledge Extraction from the Neural ‘Black Box’ in Ecological Monitoring, Journal of Industrial and Systems Engineering Vol. 3, No. 1, pp 38-55

Yu, L., Wang, L., Yu, J., , Identification of product definition patterns in mass customization using a learning-based hybrid approach, The International Journal of Advanced Manufacturing Technology Volume 38, Numbers 11-12, 1061-1074, DOI: 10.1007/s00170-007-1152-3

Campos, P.G., Ludermir, T.B., 2005, Literal and ProRulext : Algorithms for Rule Extraction of ANNs, Proceedings of the 5th International Conference on Hybrid Inteligence Systems

Fahlman, S. E., 1988, An Empirical Study of Learning Speed in Back-Propagation Networks, Proceedings of the 1988 Connectionist Models Summer School. Pittsburgh.

Franco, L., Subirats, J.L., Molina, I., Alba, E., Jerez, J.M., 2007, Early Breast Cancer Prognosis Prediction and Rule Extraction Using a New Constructive Neural Network Algorithm,

Hongchun, Y., Fanlun, X., Chao, D., 2000, Neural Network Method  for Extraction Evaluation Rules of Soil Fertility, Project of National Natural Foundations of China

Kolman, E., Margaliot, M., 2005, Knowledge Extraction from Neural Networks using the All-Pemutations Fuzzy Rule Base , The 8th International Work-Conference on Artificial Neural Networks (IWANN 2005)

Lisboa, P.J., Taktak, A.F.G., 2006, The Use of Artificial Neural Networks in Decision Suport in Cancer, Neural Networks 19 (2006) 408-415

Liu, H. dan Tan, S. T., 1995, X2R: A Fast Rule Generator, Proceedings of IEEE International Conference on Systems, Man and Cybernetics, Vancouver

Liu, Y., Liu, H. , Zhang, B., Wu, G., 2004, Extraction If-Then Rules from Trained Neural Network and Its Application to Earthquake Prediction, Proceedings of the Third IEEE International Conference on Cogitive Informatics

Lu, H., Setiono, R. dan Liu, H., 1995, Neuro Rule: A Connectionist Approach to Data Mining, Proceedings of the 21th International Conference on Very Large Data Bases, Zurich

Ma, J. Guo, D., Liu, M., Ma, Y., Chen, S., 2009, Rules Extraction from ANN Based on Clustering, International Conference on Computational Intelligence and Natural Computing

Markowska-Kaczmar, U., 2005, The Influence of Parameters in Evolutionary Based Rule Extraction Method from Neural Network, Proceedings of the 2005 5th International Conference on Inteligence Systems Design and Applications

Milare, C. R., Carvalho, A. C.P.L.F., Monard, M.C.,  2001, Extracting Rules from  Neural Networks using Symbolic Algorithms : Preliminary Results, Proceedings of 4th International Conference on Computational Inteligence and Multimedia Applications

Nikolov, V., Bogdanov, V., 2010, Integration of Neural Networks and Expert Systems for Time Series, International Conference on Computer Systems and Technologies – CompSysTech’10

Omlina, C.W., Snydersb, S., 2003, Inductive bias strength in knowledge-based neural networks: application to magnetic resonance spectroscopy of breast tissues,

Rutkowska, D., 2005, IF-THEN rules in neural networks for classification, Proceedings of the 2005 International Conference on Computational Intelligence for Modelling, Control and Automation, and International Conference on Intelligent Agents, Web Technologies and Internet Commerce (CIMCA-IAWTIC’05)

Sarhan, A.M., Abd El-Wahed, W.F., Danf, T.E., Tokhy, M. M., 2005, Developing a Rule Extraction Methodology for Expert Sytems Based Artificial Neural Network Ensembles,

Setiono, R., Tanaka, M., 2010, Neural network rule extraction and the LED display recognition problem, 22nd International Conference on Tools with Artificial Intelligence

Shen, J., Wang, L., 2010, Configuration Rules Acquisition for Product Extension Services Using Local Cluster Neural Network and RULEX Algorithm, International Conference on Artificial Intelligence and Computational Intelligence

Xiao, L., Sun, D., Liu, Y., Huang, Y., 2010, A Combined Method Based on Expert System and BP Neural Network for UAV Systems Fault Diagnosis, International Conference on Artificial Intelligence and Computational Intelligence

Yuan, C., Wang, W. 2010,  Approach of Knowledge Acquisition Based on Artificial Neural Network in Product Design Process, Chen, J., Li, P., International Conference on Intelligent Computation Technology and Automation

Zhou, Z., 2003, Rule Extraction: Using Neural Networks or For Neural Networks?, National Laboratory for Novel Software Technology, Nanjing University, Nanjing 210093, China

 

Pengalaman Penelitian           :

No.

Tahun

Judul Penelitian

Pendanaan

Sumber

Jml (Juta Rp)
1 2007 Asosiaif Data Mining pada super market menggunakan algoritma apriori Jurusan 7
2 2008 Algoritma ProRulext dan Literal untuk ekstrasi aturan JST Masyarakat 10
3 2009 Perbandingan JST dan Algoritma REANN Masyarakat 15
4 2011 Penggabungan JST LVQ dan CBR untuk penentuan kelayakan lokasi usaha Masyarakat 10

 

Agus Sihabuddin, S.Si.,M.Kom

civitas Wednesday, 9 May 2012

Judul : MEDIUM LEVEL PRICE DAN MARTIANGLE SYSTEM PADA SISTEM PERDAGANGAN VALUTA ASING
Abstrak :

Penelitian ini memberikan sebuah model baru bagi sistem entry pada perdagangan valuta asing yaitu dengan menggunakan sistem Medium Level Price. Sistem MLP ini telah banyak digunakan pada sistem perdagangan saham. Pada penelitian ini dikembangkan MLP dengan dikombinasikan dengan sebuah  martiangle system dan diujicobakan ke dalam sebuah sistem perdagangan valuta asing.

Ujicoba meliputi ujicoba back testing dan forward testing. Backteting dengan menggunakan data lampau selama beberapa tahun sehingga bisa diketahui unjuk kerja pada data lampau. Backtesting digunakan juga untuk memilih pasangan valuta asing yang memberikan hasil cukup baik sehingga layak untuk dilakukan forward testing.  Forward testing ini memberikan kebaruan testing pada kondisi pasar sesungguhnya bukan di atas kertas saja sehingga keunggulan sistem bisa lebih dipercaya.

 

Latar Belakang                        :

Salah satu sistem perdagangan dunia yang paling besar adalah  perdagangan valuta asing (foreign exchange market). Transaksdi yang terjadi pada pasar ini sangatlah besar dengan perkiraan sekitar $5 triliun transaksi setiap hari sehingga memberikan lukuiditas yang sangat tinggi. Partisipan dari pasar ini adalah para bank-bank besar dunia, bank biasa, hedge fund, institusi keuangan, sampai denagn para retailer dan spekulan.  Pasar ini semakin menarik karena sistem jam buka yang menyambung dari satu pasar ke pasar lain sehingga menjadi pasar yang buka 24 jam sehari selama 5 hari kerja.

Daya tarik lain dari pasar valuta asing adalah akses yang cepat ke pasar secara langsung semakin terbuka untuk semua orang,  keuntungan yang bisa didapat dari tidak hanya membeli tetapi menjual valuta asing, tersedianya fasilitas margin yang bisa sangat besar leveragenya, komisi perdagangan yang semakin kecil bahkan tidak ada, modal awal untuk memulai perdagangan semakin keci bahkan beberapa broker mengijinkan memulai dari US$1, semakin banyaknya fund manager bahkan perseorangan yang menawarkan jasa managed account serta semakin berkembangnya teknologi robot trading. Masih banyak lagi alasan lain mengapa pasar ini sangat menarik bagi semakin banyak orang (May, 2011).

Mata uang yang sering diperdagangkan adalah mata uang negara-negara maju seperti Dollar  Amerika (USD), Yen Jepang (JPY), Swiss Franc (CHF), Pounsterling Inggris (GBP), Australian Dollar (AUD), dan Euro (EUR).  Masih banyak pasangan mata uang lainnya yang diperdagangkan tetapi dengan volume yang lebih kecil.

Pada saat melakukan perdagangan valuta asing ada dua pendekatan umum yang dipakai untuk memperkirakan pergerakan harga valuta asing yaitu pendekatan fundamental dan pendekatan teknikal. Analisis fundamental dilakukan dengan melihat data fundamental suatu negara, kesehatan keuangannya, serta kompetitor dari pasangan mata uang. Sehubungan dengan pengumpulan data yang kadang membutuhkan waktu yang cukup lama maka analisis fundamental lebih cocok digunakan pada investasi (May, 2011).

Analisis teknikal dikaukan dengan memperhatikan nilai harga pembukaan, tertinggi, terendah, penutupan, serta volume perdagangan serta dibantu dengan menggunakan grafik.  Harga dan grafik tersebut kemudian diolah dengan pendekatan pola-pola grafik dan atau indikator-indikator teknikal (May, 2011).

Analisis teknikal mempunyai tiga prinsip. Prinsip pertama yaitu aksi pasar (harga dan volume) mendiskon segalanya. Studi Engel (2005) dan Murphy (1986) menyatakan bahwa harga bergerak seringkali mendahului perubahan fundamental. Prinsip kedua yaitu harga bergerak dalam sebuah trend. Hal ini memudahkan para teknikal analis untuk melakukan prediksi pergerakan harga. Prinsip ketiga yaitu sejarah akan terulang kembali sehingga reksi yang sama cenderung diberikan kepada kondisi yang hampir sama.  (Murphy, 1986) dan Pring (1991).

Analisi teknikal secara tradisional mempunyai dua pendekatan yaitu dengan metode grafik atau chart dan dengan metode mekanik atau indikator. Metode grafik menggunakan grafik dari sejarah harga dan memprediksi pola ke depan dengan pola lampau.  Metode grafik sangatlah subjektif dan membutuhkan keahlian dalam menentukan pola yang ada. Metode mekanik atau indikator memberikan konsistensi dan disiplin lebih baik bagi analis. Metode ini menggunakan perhitungan fungsi-fungsi matematika dari harga lampau dan sekarang (Neely, dan Weller, 2011).

Bulkowski (2005) menjelaskan tentang pola pola chart  yang ada pada sebuah grafik. Beberapa contoh pola chart yang ada di antaranya adalah: rising/falling wegde, double/triple tops/bottom, continuation, cup and handle, head and shoulder, diamond top/bottom,  rectangle top/bottom,  dan masih banyak lagi. Dalam merepresentasikan chart ada beberapa model chart yang biasa dipergunakakan yaitu: chart garis, chart bar dan chart candlestick.

Candlestick juga dikenal sebagai salah satu alat untuk mendeteksi pola chart. Candlestick ditemukan oleh Munehisa Homma pada tahu 1700 an. Pola pola penting pada candleastick diantaranya adalah : bullish engulfing, bearish engulfing, shooting star, hammer, bullish harami,  bearish harami,  piercing line, dark cloud, doji, dan lain-lainnya (Vibby, 2011)

Untuk mengurangi subjektifitas metode grafik maka analis menambahkan metode mekanik. Indikator-indikator ditambahkan kepada pola grafik yang ada untuk mengambil keputusan. Fungsi dari indikator ini adalah untuk mengindentifikasi trend dan pembalikan/reversal. Tiga indikator tradisional telah digunakan , diantaranya yaitu: filter, double moving average, dan channel.  Pada perkembangan selanjutnya, indikator baru muncul (Clements, 2010) yaitu realtive strenght indicator (RSI)< exponentially weighted moving average (EWMA), moving average convergence divergence (MACD),  dan rate of change (ROC).

Pendekatan lain selain analisis teknikal dan fundamental adalah dengan menggunakan sistem martiangle. Martiangle di sini bisa diartikan sebagai sebuah sistem pengambulan posisi pada suatu aset tanpa mempertimbangkan keadaan lampau utnuk memprediksi harga ke depan.  Startegi ini menggunakan posisi yang lebih besar terkadang double dari posisi pertama jika posisi pertama adalah salah dan seterusnya. Dengan menggunakan sistem ini maka recoveri dari harga tidak harus mencapai harga lebih tinggi dari awal pembukaan. Keuntungan dari posisi terakhir dengan ukuran yang paling besar diharapkan bisa menutup kerugian dari semua posisi sebelumnya bahkan bisa mendapatkan gain. Kelemahan dari sisitem ini adalah pada pembukaan posisi yang semakin besar dan semakin besar maka jika harga melawan posisi pembukaan terus menerus maka modal akan semakin cepat tergerus atau habis.

 

Rancangan Riset         :

Penelitian ini dimulai dari deteksi pola-pola bearish dan bullish reversal. Pola bullish reversal dicari di area bawah/atas sebuah tren. Hal ini untuk menambah rasio return dan risk sehingga rasio return lebih besar dari risk. Hal serupa dilakukan pada pola bearish reversal dicari di area atas pada sebuah tren. Setelah dideteksi pola-pola reversal baik untuk bullish dan bearish maka dilihat apakah pola itu termasuk 10 pola utama bearish atau bullish yaitu untuk bullish adalah bullish engulfing, hammer, bullish harami, piercing line, doji dan untuk bearish reversal adalah bearish engulfing, shooting star, bearish harami, dark cloud, doji (Vibby, 2011).

Setelah dideteksi pola bearish dan bullish reversal maka dilakukan algoritma medium level price. Berikut algoritma medium level price untuk membuka posisi beli:

  1. tentukan medium level price yaitu harga tengah antara open dan close periode sebelumnya
  2. jika harga dibuka di bawah MLP maka tunggu sampai harga melewati mlp untuk membuka posisi beli
  3. jika harga naik terus maka posisi ditutup dengan menggunakan aturan jika harga turun di bawah MLP candlestick sebelumnya (trailing stop)

Algoritma MLP unutk pembukaan posisi jual tinggal menyesuaikan dengan posisi beli.

Algoritma MLP di atas akan menjadi kompleks jika diimplementasikan murni maka untuk penutupan posisi diambil posisi tetap pasa sekian point pada martiangle sistem yang terpilih. Martiangle sistem yang dipilih pada penelitian ini adalah Blessing 3 versi 3.9.5. alasan pemilihan sistem ini adalah

  1. sistem ini bersifat terbuka sehingga bisa dirubah sesuai dengan kebutuhan
  2. sistem ini bersifat gratis
  3. sistem ini banyak dipakai oleh trader
  4. sistem ini terbukti cukup baik pada sisi money management, drawdown management, magic number bisa dimodifikasi, dan sebagainya.

Setelah MLP dimasukkan ke sistem martiangle maka dilakukan backtest terhadap data history minimal satu (1) tahun sebelumnya. Dari sini akan dilihat performa entri dengan menggunakan MLP dan tiga pasangan mata uang dengan hasil terbaik akan dilakukan test secara forward testing dengan menggunakan account real dan data real sehingga bisa diketahui performa secara nyata.

Berikut skema penelitian yang akan dilakukan.

 

Daftar Pustaka                        :

Bulkowski, T.N., 2005, Encyclopedia of Chart Patterns, John Wiley and Sons, New York

Clements, M., 2010,Technical Analysis in Foreign Exchange Markets, Global Markets Media Ltd, Guilford, UK

Lipinski, P., Korczak, S., 2005, “Early Warning in On-line Stock Trading Sysytem”, Proceding of the 2005 5th International Conference on Intelligent System Design and Aplication (ISDA ’05)

May, E., 2011, We are trader not Gambler, Vibby Publishing

Muphy, J.J.,1986, Technical Analysis of the Futures Markets, (New York Institute of Finance, Prentice-Hall, New York

Naissan, I.H., 2006, Aplikasi Prediksi Posisi Pembukaan dan Penutupan, Valuta Asing dengan Moving Average dan Stochastic Oscilator, FMIPA UGM, Yogyakarta

Neely, C.J., Weller, P.A., 2003, Intraday technical trading in the foreign exchange market, Journal of International Money and Finance 22, 223–237.

Pring, M., 1991, Technical Analysis Explained, Mc., Graw Hill, New York,

Sihabuddin, A., Rosadi, D., Wibowo, N.D., 2009, Early Warning System In Forex Market, ISSTEC

Sihabuddin, A., Sari, A.K., 2009, Taichi As An Ichimoku Kinko Hyo Extension, ISSTEC

Sukmaningsih, 2007, Expert advisor using stochastic oscillator and average directional index (ADX)  , International Conference, Ahmad Dahlan University, 17 Feb 2007

Vibby, S., 2011, Trading and Investing Mastery Course, Vibby Trading Academy

 

Pengalaman Penelitian           :

No Judul Kedudukan Tahun/Sumber dana
1. Aplikasi penentuan harga saham Initial Public Offering di Bursa Efek Indonesia Peneliti Utama 2007/Jurusan Matematika
2. Sistem Informasi KTP dengan Sistem Basis Data Terdistribusi, Hasil Penelitian Unggulan Terpadu Peneliti Utama 2007/Depkominfo

 

Universitas Gadjah Mada

Sekretariat Ilmu Komputer UGM
Sekip Unit III
FMIPA Gedung Selatan
Sleman, Yogjakarta – 55281
Telp. (0274) 546194
Fax. (0274) 546194
Email : ikomp@ugm.ac.id

© Universitas Gadjah Mada

KEBIJAKAN PRIVASI/PRIVACY POLICY