Pages

Sabtu, 31 Januari 2015

AGP (Accelerated Graphics Port)

Anda menunjuk, meng-klik, drag and drop. File terbuka dan tertutup di jendela terpisah. Memutar film, munculnya pop-up, video Games memenuhi layar, membenamkan Anda ke dalam dunia grafis 3D. Itu semua adalah hal-hal yang biasa kita lihat pada komputer kita.

Semua itu bermula pada tahun 1973, ketika Xerox menyelesaikan Alto, komputer pertama yang menggunakan graphical user interface (GUI). Inovasi ini selamanya mengubah cara orang bekerja dengan komputer mereka.

Hari ini, setiap aspek komputasi, mulai dari membuat animasi hingga tugas-tugas mudah seperti pengolah kata dan email, semuanya menggunakan grafis  untuk menciptakan lingkungan kerja yang lebih intuitif bagi pengguna komputer. Perangkat keras yang mendukung grafis ini disebut graphics card. Terhubungnya kartu grafis ini dengan komputer merupakan kunci bagi kemampuan komputer untuk melakukan render grafis. Dalam artikel ini akan dipelajari tentang AGP (Accelerated Graphics Port). AGP memungkinkan komputer untuk berkomunikasi dengan kartu grafis, meningkatkan kualitas tampilan dan kecepatan pada grafis komputer.

Turun dari bus PCI
Pada tahun 1996, Intel memperkenalkan AGP sebagai cara yang lebih efisien untuk mengirimkan streaming video dan rendering grafis 3D secara real-time yang menjadi lebih umum dalam seluruh aspek komputasi. Sebelumnya, metode standar untuk pengiriman data adalah bus Peripheral Component Interconnect (PCI). Bus PCI adalah jalur yang digunakan untuk mengirimkan informasi dari graphics card ke Central Processing Unit (CPU). Sebuah bus memungkinkan untuk mengirimkan beberapa paket data informasi dari sumber yang berbeda, bersama dengan informasi-informasi lain yang berasal dari perangkat yang terhubung ke PCI. Setelah seluruh informasi tersebut sampai di CPU, informasi tersebut harus menunggu giliran untuk diproses oleh CPU.

Sistem ini bekerja dengan baik selama bertahun-tahun, namun tidak beberapa lama kemudian bus PCI menjadi sedikit tertinggal. Internet dan kebanyakan software sangat-sangat berorientasi pada grafis, dan tuntutan untuk kartu grafis menjadi prioritas dari seluruh perangkat PCI.

AGP dirancang berdasarkan pada desain bus PCI; namun tidak seperti bus, AGP menyediakan koneksi point-to-point dari kartu grafis ke CPU. Dengan adanya jalur yang bersih ke CPU dan memori (RAM), AGP menyediakan cara yang lebih cepat dan lebih efisien bagi komputer untuk mendapatkan informasi yang dibutuhkan untuk melakukan render grafis yang rumit.

AGP Graphics Rendering
AGP dibangun di atas gagasan untuk meningkatkan cara pengiriman data dari PCI ke CPU. Intel memperolehnya dengan mengalamatkan seluruh area di mana pengiriman PCI yang menyebabkan efek data bottleneck pada sistem. Dengan membersihkan kemacetan data, AGP meningkatkan kecepatan pada keadaan di mana komputer dapat melakukan render grafis dengan menggunakan resource sistem yang lebih efisien untuk mengurangi keseluruhan drag. Berikut penjelasannya:
  • Dedicated Port – Tidak ada perangkat lain yang terhubung pada AGP selain graphics card. Dengan jalur yang hanya disediakan untuk menuju CPU, koneksi kartu grafis dapat selalu beroperasi pada kapasitas maksimum.
  • Pipelining – Metode organisasi data ini memungkinkan kartu grafis untuk dapat menerima dan menanggapi beberapa paket data dalam satu permintaan. Contoh sederhana: Dengan AGP, kartu grafis dapat menerima permintaan untuk seluruh informasi yang dibutuhkan untuk render suatu gambar dan mengirimkan seluruhnya sekaligus. Dengan PCI, kartu grafis akan menerima informasi tinggi gambar, lalu ia menunggu... lalu panjang gambar, dan menunggu... lalu lebar gambar, dan menunggu... selanjutnya menggabungkan data, baru kemudian mengirimkannya.
  • Sideband Addressing – Layaknya surat, seluruh permintaan dan informasi yang dikirimkan harus memiliki informasi yang berisi “Kepada” dan “Dari”. Masalah yang timbul pada PCI, informasi “Kepada” dan “Dari” tersebut dikirimkan bersama dengan data kerja dalam satu paket. Hal ini sama dengan menyertakan kartu alamat di dalam amplop ketika mengirimkan surat: sekarang kantor pos harus membuka amplop untuk melihat alamat tujuannya. Itu akan menghabiskan waktu bagi kantor pos. Sebagai tambahan, kartu alamat itu sendiri akan membutuhkan ruang dalam amplop, mengurangi jumlah muatan total barang-barang yang dapat dikirimkan. Dengan sideband addressing, AGP memberikan delapan jalur tambahan pada paket data hanya untuk pengalamatan. Dengan demikian, alamat akan berada di luar amplop, memberi ruang pada keseluruhan bandwidth pada jalur data yang digunakan untuk mengirimkan informasi dua arah. Sebagai tambahan, metode ini akan membersihkan resource sistem yang sebelumnya digunakan untuk membuka paket dan membaca alamat.
PCI Graphics Rendering: Pemborosan RAM
Kecepatan bukan satu-satunya wilayah di mana AGP telah mengalahkan pendahulunya. Namun juga merampingkan proses rendering grafis dengan menggunakan RAM lebih efisien.

Grafis 3D apapun yang Anda lihat pada komputer, itu dibangun oleh texture map. Texture map diumpamakan seperti kertas pembungkus (kertas kado). Komputer Anda akan mengambil citra 2D lalu membungkusnya dengan sekumpulan parameter yang ditentukan oleh graphics card untuk menciptakan tampilan gambar 3D. Pikirkan ini sebagai membungkus sebuah kotak yang tak terlihat menggunakan kertas kado untuk menunjukkan ukuran kotak tersebut. Hal ini penting untuk dipahami karena pembuatan dan penyimpanan texture map merupakan hal utama yang menguras RAM (banyak menggunakan RAM) baik dari graphics card maupun sistem secara keseluruhan.

Dengan PCI, texture map dimuat dari HDD ke RAM, diproses oleh CPU, lalu disimpan dalam framebuffer pada graphics card
Dengan graphics card berbasis PCI, setiap texture map harus disimpan dua kali. Pertama, texture map dimuat dari hard drive (HDD) menuju RAM sampai ia harus digunakan. Jika ia dibutuhkan, texture map akan dikeluarkan dari RAM dan dikirimkan ke CPU untuk diproses. Setelah diproses, texture map akan dikirimkan melalui bus PCI ke graphics card, di situ ia disimpan lagi dalam framebuffer yang ada pada graphics card. Framebuffer adalah tempat di mana graphics card menahan citra dalam penyimpanan setelah gambar tersebut di-render, sehingga gambar dapat di-refresh setiap kali dibutuhkan. Seluruh proses menyimpan dan mengirim antara sistem dan graphics card ini sangat menguras keseluruhan performa komputer.

AGP Melakukan Kemajuan pada Memori
AGP meningkatkan proses menyimpan texture map dengan mengizinkan sistem operasi menunjuk RAM untuk digunakan oleh graphics card ketika beroperasi. Tipe memori ini disebut AGP Memory atau non-local video memory. Dengan sistem operasi menggunakan RAM yang lebih banyak dan lebih cepat untuk menyimpan texture map, itu akan mengurangi jumlah map yang harus disimpan dalam memori pada graphics card. Selain itu, ukuran texture map pada komputer mampu bekerja tanpa terbatas pada jumlah memori pada graphics card.
Diagram arsitektur standar pada sistem Pentium III yang menggunakan AGP
Cara lain AGP menghemat RAM adalah dengan menyimpan texture map hanya satu kali. Itu dilakukan sedikit penipuan. Penipuan ini menggunakan bentu chipset yang disebut Graphics Address Remapping Table (GART). GART akan mengambil bagian RAM yang dipinjam AGP untuk menyimpan texture map untuk graphics card kemudian melakukan pengalamatan ulang. Alamat yang baru yang disediakan oleh GART tersebut menjadikan CPU berpikir bahwa texture map disimpan dalam framebuffer pada graphics card. GART dapat menempatkan bit dan potongan-potongan map seluruhnya pada RAM; tetapi ketika CPU membutuhkannya, sejauh itu menyangkut texture map yang berada di tempat seharusnya.

AGP Graphic Cards
AGP dan AGP graphics card saat ini menjadi standar untuk pemrosesan grafis pada komputer. Seperti hardware yang lain, teknologi dan spesifikasinya akan terus meningkat.
Untuk mempelajari lebih lanjut tentang standar AGP saat ini silakan kunjungi link berikut:

Spesifikasi:
Jika artikel ini bermanfaat, silakan share.
______________________________
Source: How Stuff Works

Jumat, 30 Januari 2015

PCI (Peripheral Component Interconnect)

Kekuatan dan kecepatan komponen komputer telah meningkat sejak komputer desktop pertama kali dikembangkan beberapa dekade lalu. Para pembuat software menciptakan aplikasi baru yang mampu untuk memanfaatkan perkembangan kecepatan processor dan kapasitas HDD terkini, sementara pembuat hardware menyibukkan diri untuk meningkatkan komponen dan merancang teknologi baru untuk menyesuaikan dengan tuntutan software high-end.

Ada satu unsur, yang meskipun sering luput dari perhatian, yaitu bus. Bus adalah jalur antar komponen dalam komputer. Memiliki bus berkecepatan tinggi itu sama pentingnya seperti memiliki transmisi yang baik pada mobil. Jika Anda memiliki mesin dengan 700 tenaga kuda disatukan dengan transmisi yang murah, Anda tidak akan mendapatkan keseluruhan tenaga kuda tersebut.

Tujuan dari bus ini sederhana saja, bus memungkinkan Anda menghubungkan komponen-komponen komputer dengan (processor) CPU. Beberapa komponen tersebut termasuk Harddisk, memori (RAM), sound system, video system dan sebagainya. Sebagai contoh, untuk melihat kerja komputer, Anda biasanya menggunakan layar CRT maupun LCD. Anda membutuhkan hardware khusus untuk mengendalikan layar, jadi layar dikendalikan oleh graphics card (kartu grafis). Graphics card adalah papan printed circuit board (PCB) berukuran kecil yang didesain untuk dipasangkan ke dalam bus. Graphics card berkomunikasi dengan processor menggunakan bus dalam komputer sebagai jalur komunikasinya.

Keuntungannya adalah bus menjadikan komponen-komponen komputer dapat digonta-ganti. Jika Anda ingin graphics card yang lebih baik, cukup cabut kartu yang lama dari bus-nya dan kemudian pasangkan dengan kartu yang baru. Jika Anda ingin menggunakan dua monitor, cukup pasangkan dua graphics card pada bus-nya.

Dalam artikel ini, akan dipelajari tentang beberapa bus tersebut. Kita akan fokus pada bus yang dikenal dengan Peripheral Component Interconnect (PCI). Kita akan membahas apa itu PCI, bagaimana ia beroperasi dan bagaimana ia digunakan, dan kita akan melihat masa depan teknologi bus.

System Bus vs PCI Bus
20 atau 30 tahun yang lalu, processor masih bekerja sangat lamban ketika processor dan bus disinkronisasikan--bus beroperasi pada kecepatan yang sama dengan processor, dan hanya ada satu bus di dalam komputer. Hari ini, processor berjalan sangat cepat dan komputer memiliki dua atau lebih bus. Masing-masing bus bekerja pada jenis jalur tertentu.

Pada PC desktop yang umum hari ini biasanya memiliki 2 bus utama:
  • Yang pertama adalah Front Side Bus (FSB) atau dikenal juga dengan system bus. Bus ini memiliki kecepatan tinggi yang berfungsi untuk menghubungkan processor dengan memori utama (RAM), AGP, PCIe, dan komponen I/O lainnya.
  • Bus kedua lebih lambat, bertugas untuk penghubung komponen lain seperti HDD dan sound card. Salah satu bus yang umum di sini ialah bus PCI. Bus-bus yang lebih lamban ini terhubung ke system bus melalui sebuah jembatan yang merupakan bagian dari chipset komputer dan bertindak sebagai polisi lalulintas, menyatukan data dari bus lain ke system bus.
Secara teknis ada juga beberapa jenis bus lain. Contohnya Universal Serial Bus (USB) yang berfungsi untuk menghubungkan perangkat lain seperti kamera, scanner dan printer ke komputer. USB menggunakan kabel tipis sebagai penghubungnya, dan beberapa perangkat dapat menggunakan jalur tersebut bersamaan. Firewire juga jenis bus lain yang banyak digunakan pada camcorder atau harddisk eksternal.

Sejarah PCI
Bus PCI yang pertama di dalam komputer PC IBM yang pertama (Circa 1982) memiliki lebar bus 16 bit dan beroperasi pada frekuensi 4,77 MHz. Secara resmi, bus ini dikenal dengan bus ISA. Desain bus ini mampu meneruskan data dalam kecepatan hingga 9MBps (Megabytes per second), cukup cepat bahkan untuk aplikasi-aplikasi hari ini.

Beberapa tahun yang lalu, bus ISA masih digunakan pada beberapa komputer. Bus tersebut dapat diterima oleh para pengembang kartu ekspansi komputer untuk IBM PC di awal tahun 1980-an. Bus ISA masih digunakan bahkan setelah begitu banyak perkembangan teknologi mampu menggantikannya.

Ada dua kunci alasan untuk usia ISA yang tahan lama:
  • Kompatibilitas jangka panjang dengan besarnya jumlah pabrikan hardware.
  • Sebelum kemunculan multimedia, beberapa hardware secara penuh menggunakan kecepatan bus yang baru.
Seiring perkembangan teknologi dan bus ISA tidak mampu menyusul, bus-bus lain pun dikembangkan. Yang menjadi kuncinya adalah Extended Industry Standard Architecture (EISA)--yang memiliki lebar bus 32-bit dan frekuensi 8 MHz--dan Vesa Local Bus (VL-Bus). Sesuatu yang keren tentang VL-Bus (sebelumnya bernama VESA, Video Electronics Standards Assosiation, yang membuat standar) adalah VL-Bus memiliki lebar bus 32-bit dan beroperasi pada kecepatan bus lokal, yang merupakan kecepatan processor. VL-Bus pada dasarnya terikat langsung dengan CPU. Hal itu bekerja dengan baik untuk satu atau bahkan dua perangkat. Namun, menghubungkan lebih dari dua perangkat ke VL-Bus, memungkinkan terjadinya interferensi (gangguan) pada performa CPU. Karena itu, VL-Bus biasanya digunakan hanya untuk menghubungkan graphics card, komponen yang mendapat keuntungan dari akses berkecepatan tinggi ke CPU.

Selama awal 1990-an, Intel memperkenalkan standar bus baru sebagai pertimbangan, yaitu  bus Peripheral Component Interconnect (PCI). PCI menyajikan bentuk hybrid, gabungan antara ISA dan VL-Bus. PCI menyediakan akses langsung ke memori (RAM) bagi perangkat yang terhubung, tetapi menggunakan bridge (jembatan) untuk menghubungkan FSB (Frontside bus) dengan CPU. Pada dasarnya, ini berarti bahwa PCI memiliki kemampuan yang lebih tinggi dari VL-Bus dalam menyingkirkan potensi gangguan pada CPU.

Frontside Bus, Backside Bus dan PCI Cards
Frontside Bus (FSB) adalah koneksi fisik yang menghubungkan processor dengan sebagian besar komponen lain pada komputer, termasuk memori utama (RAM), HDD dan slot PCI. Hari ini, FSB biasanya beroperasi pada frekuensi 400 MHz, dengan sistem terbaru berjalan pada frekuensi 800 MHz.
Backside Bus adalah koneksi terpisah antara processor dan cache Level-2. Bus ini beroperasi dengan kecepatan yang lebih tinggi daripada FSB, biasanya sama dengan kecepatan processor, sehingga caching bekerja se-efisien mungkin. Backside bus telah berevolusi selama bertahun-tahun. Pada tahun 1990-an, backside bus berbentuk kabel yang menghubungkan processor dengan chip cache yang berada diluar. Cache ini dulunya merupakan chip terpisah yang membutuhkan RAM yang sangat besar. Setelah itu, cache Level-2 telah diintegrasikan ke dalam processor, menjadikan processor lebih kecil dan lebih murah. Karena sekarang cache berada di dalam processor itu sendiri, dalam beberapa hal backside bus sudah tidak benar-benar bus lagi.

PCI dapat menghubungkan lebih banyak perangkat dibandingkan VL-Bus, yaitu hingga lima komponen eksternal. Masing-masing dari lima konektor komponen eksternal tersebut dapat diganti dengan dua perangkat tetap pada motherboard. Selain itu, Anda juga dapat memiliki lebih dari satu bus PCI pada komputer yang sama, meskipun itu jarang yang melakukannya. Chip Jembatan PCI mengatur kecepatan bus PCI secara independen (terpisah) dari kecepatan CPU. Hal ini menyediakan tingkat reliabilitas (keandalan) yang lebih tinggi dan memastikan bahwa pabrikan hardware PCI tahu persis apa yang harus dirancang.

PCI pada awalnya beroperasi pada frekuensi 33 MHz menggunakan lebar bus 32-bit. Revisi standar termasuk meningkatkan kecepatan dari 33 MHz menjadi 66 MHz dan menggandakan lebar bus data menjadi 64-bit. Saat ini, PCI-X menyediakan transfer 64-bit dengan kecepatan 133 MHz untuk transfer rate yang mengagumkan, yaitu 1 GBps (Gigabytes per second)!

Kartu PCI menggunakan 47 pin penghubung (49 pin untuk mastering card, yang dapat mengontrol bus PCI tanpa mengganggu CPU). Bus PCI mampu bekerja dengan jumlah pin yang sedikit ini dikarenakan hardware multiplexing, yang berarti bahwa perangkat mengirimkan lebih dari satu sinyal pada satu pin. Selain itu PCI juga mendukung perangkat yang menggunakan tegangan listrik 5 atau 3,3 Volt.

Walaupun Intel mengusulkan standar PCI pada tahun 1991, namun tidak memperoleh popularitas sampai datangnya Windows 95 (tahun 1995). Ketertarikan yang tiba-tiba pada PCI ini berdasarkan pada fakta bahwa Windows 95 mendukung fitur yang disebut Plug and Play (PnP).

Plug and Play (PnP)
PnP bermakna bahwa Anda dapat menghubungkan perangkat atau memasukkan kartu ekspansi ke komputer dan secara otomatis dapat dikenali dan dikonfigurasi untuk bekerja dalam sistem. PnP adalah konsep yang sederhana, namun untuk mewujudkannya membutuhkan upaya bersama untuk ambil bagian dalam industri komputer. Intel menciptakan standar PnP dan menggabungkannya dengan desain PCI. Namun itu tidak terjadi hingga beberapa tahun kemudian ketika sistem operasi mainstream, Windows 95, menyediakan sistem yang mendukung fitur PnP. Diperkenalkannya PnP meningkatkan permintaan terhadap komputer ber-PCI, dan dengan cepat menggantikan ISA.

Agar dapat diterapkan sepenuhnya, PnP membutuhkan 3 hal:
1. PnP BIOS - Utilitas utama yang mengaktifkan PnP dan mendeteksi perangkat PnP. BIOS juga membaca ESCD untuk mengonfigurasi informasi yang terdapat pada perangkat PnP.

2. Extended System Configuration Data (ESCD) - Sebuah file yang berisi informasi tentang perangkat PnP yang terinstal.

3. Sistem Operasi PnP - Sistem operasi apapun seperti Win XP yang mendukung PnP. Penanganan PnP dalam sistem operasi menyelesaikan proses konfigurasi yang dimulai oleh BIOS untuk setiap perangkat PnP. PnP mengotomatiskan beberapa tugas utama yang biasanya dilakukan secara manual atau dengan utilitas yang disediakan oleh produsen hardware. Tugas-tugas tersebut termasuk pengaturan untuk:
  • Interrupt Requests (IRQ) - IRQ dikenal juga dengan hardware interrupt, digunakan oleh banyak komponen komputer untuk mendapatkan perhatian CPU. Contoh, mouse mengirimkan IRQ setiap kali digerakkan supaya CPU mengetahui bahwa mouse sedang melakukan sesuatu. Sebelum PCI, setiap hardware membutuhkan pengaturan IRQ yang terpisah. Namun PCI mengatur hardware interrupt pada bus bridge, memungkinkannya untuk menggunakan sistem IRQ tunggal untuk beberapa perangkat PCI.
  • Direct Memory Access (DMA) - Sederhananya, DMA berarti bahwa perangkat dikonfigurasi untuk mengakses memori (RAM) tanpa harus meminta izin kepada CPU.
  • Memory Addresses - Banyak perangkat yang ditugaskan bagian RAM untuk penggunaan eksklusif oleh perangkat tersebut. Hal ini memastikan bahwa hardware akan memiliki resource yang dibutuhkan untuk dapat beroperasi dengan semestinya.
  • Input/Output (I/O) - Pengaturan ini menentukan port yang digunakan oleh perangkat untuk menerima dan mengirim informasi.
PnP membuat Anda jauh lebih mudah untuk menambahkan perangkat ke komputer, namun PnP tidak sempurna.
Beberapa rutin dalam software yang digunakan oleh pengembang PnP BIOS, produsen perangkat PCI dan Microsoft telah membuat banyak orang menyebut PnP dengan "Plug and Pray." Namun efek keseluruhan dari PnP adalah untuk memudahkan proses upgrade komputer dengan menambahkan perangkat atau mengganti perangkat yang ada.

PCI vs. AGP
Bus PCI yang memadai selama bertahun-tahun, menyediakan bandwidth yang cukup untuk semua periferal yang ingin digunakan oleh sebagian besar user. Seluruhnya, kecuali satu: graphics card. Pada pertengahan tahun 1990-an, kartu grafis tumbuh semakin powerful, dan game 3D bergantung pada performa yang lebih tinggi. Bus PCI tidak mampu menangani seluruh informasi yang dikirimkan antara processor utama (CPU) dan processor grafis (GPU). Hasilnya, Intel mengembangkan Accelerated Graphics Port (AGP). AGP adalah bus yang dipersembahkan sepenuhnya untuk graphics card. Bandwidth bus yang dimiliki oleh AGP tidak digunakan oleh komponen lain. Meskipun PCI melanjutkan untuk menjadi bus pilihan bagi sebagian besar periferal, AGP telah mengambil alih tugas khusus pemrosesan grafis. Meski demikian, teknologi bus baru telah menghantam pasar yang mungkin akan menjadi akhir untuk AGP.

Menambahkan Perangkat PCI
Anggap saja Anda baru saja menambahkan sound card berbasis PCI ke komputer dengan Windows XP. Berikut adalah contoh bagaimana cara kerjanya:
  1. Buka casing komputer, dan memasangkan sound card ke slot PCI di motherboard.
  2. Tutup casing komputer, lalu nyalakan komputer.
  3. BIOS akan menjalankan PnP BIOS.
  4. PnP BIOS akan memindai perangkat yang terpasang pada bus PCI. Hal itu dilakukan dengan mengirimkan sinyal ke perangkat apapun yang terhubung pada bus, menanyakan siapa perangkat tersebut.
  5. Sound card menanggapi dengan memperkenalkan diri. Device ID (ID perangkat) dikirim kembali melalui bus ke BIOS.
  6. PnP BIOS memeriksa ESCD untuk melihat kalau data konfigurasi untuk sound card sudah ada. Karena sound card baru saja dipasang, maka tidak ada catatan ESCD untuknya.
  7. PnP BIOS menugaskan pengaturan IRQ, DMA, pengalamatan memori dan I/O untuk sound card dan menyimpan datanya di ESCD.
  8. Windows XP mulai booting. Windows memeriksa ESCD dan bus PCI. Sistem operasi mendeteksi sound card sebagai perangkat baru dan kemudian menampilkan jendela kecil yang memberitahu Anda bahwa Windows telah menemukan perangkat baru.
  9. Dalam banyak kasus, Windows XP akan mengenali perangkat itu, mencari dan menjalankan driver yang diperlukan, dan siap difungsikan. Jika tidak, akan terbuka jendela "Found New Hardware Wizard". Jendela ini akan memandu Anda untuk menginstal driver dari disk yang menyertai sound card.
  10. Setelah driver terinstal, perangkat tersebut sudah siap digunakan. Beberapa perangkat mungkin ingin Anda me-restart komputer sebelum perangkat tersebut dapat digunakan.
  11. Anda ingin menyimpan audio dari tape deck eksternal yang telah dipasangkan ke sound card. Anda menjalankan software perekam yang disertakan oleh sound card dan mulai merekam.
  12. Audio masuk ke sound card melalui konektor audio eksternal. Sound card mengonversi sinyal analog menjadi sinyal digital.
  13. Data audio digital dari sound card dibawa melalui bus PCI menuju bus controller. Controller akan menentukan perangkat PCI mana yang memiliki prioritas untuk mengirimkan data ke CPU. Controller juga memeriksa apakah datanya akan langsung ke CPU atau ke RAM.
  14. Karena sound card dalam mode merekam, bus controller menugaskan prioritas tinggi untuk data dari sound card dan mengirimkan data tersebut melalui bus bridge ke system bus.
  15. System bus menyimpan data ke dalam RAM. Setelah rekaman selesai, Anda dapat memutuskan untuk menyimpan datanya di HDD atau tetap berada dalam RAM untuk pemrosesan lebih lanjut.
PCI Standards dan PCI Express
Seiring dengan meningkatnya kecepatan processor dalam GHz, banyak perusahaan yang bekerja keras untuk mengembangkan standar bus generasi selanjutnya. Banyak yang merasa bahwa PCI, seperti ISA sebelumnya, cepat mendekati batas tertinggi kemampuannya.
Seluruh standar baru yang diusulkan memiliki satu kesamaan. Mereka mengusulkan untuk menjauhi teknologi shared-bus yang digunakan pada PCI dan beralih ke point-to-point switching connection. Ini berarti bahwa koneksi langsung antara dua perangkat pada bus dibentuk ketika mereka sedang saling berkomunikasi. Pada dasarnya, ketika kedua perangkat saling berkomunikasi, tidak ada perangkat lain yang dapat mengakses jalur tersebut. Dengan menyediakan beberapa link langsung, bus tersebut dapat memungkinkan beberapa perangkat untuk berkomunikasi tanpa ada perlambatan satu sama lain.

HyperTransport, adalah standar yang diusulkan oleh Advanced Micro Devices, Inc. (AMD), digembar-gemborkan oleh AMD sebagai kemajuan alami dari PCI. Untuk masing-masing session antara perangkat, akan menyediakan dua link point-to-point. Masing-masing link dapat memiliki lebar bus antara 2 hingga 32-bit, mendukung kecepatan transfer maksimum 6,4 GBps. HyperTransport didesain khusus untuk menghubungkan komponen internal komputer satu sama lain, bukan menghubungkan perangkat eksternal seperti removable drive. Pengembangan chip bridge akan mengaktifkan menjadikan PCI dapat mengakses bus HyperTransport.

PCI-Express, dikembangkan oleh Intel (dulunya dikenal dengan 3GIO atau 3rd Generation I/O), terlihat akan menjadi "hal besar berikutnya" dalam teknologi bus. Awalnya, bus yang lebih cepat dikembangkan server kelas tinggi. Bus ini disebut PCI-X dan PCI-X 2.0, namun keduanya tidak cocok untuk pasar komputer rumahan, karena biaya yang sangat mahal untuk membangun motherboard yang memiliki PCI-X.

PCI-Express sangat berbeda, ia membidik pasar komputer rumahan, dan dapat melakukan revolusi tidak hanya performa komputer, tetapi juga bentuk sistem komputer itu sendiri. Bus baru ini tidak hanya lebih cepat dan mampu menangani bandwidth yang lebih besar dari PCI. PCI-Express adalah sistem point-to-point, yang memberikan performa lebih baik dan mungkin bahkan menjadikan pembuatan motherboard menjadi lebih murah. Slot PCI-Express juga dapat menerima kartu PCI lama, fitur ini akan membantu PCI-Express menjadi terkenal lebih cepat dibandingkan jika ketika komponen PCI menjadi tak berguna.

PCI-Express juga dapat diukur. Sebuah slot dasar PCI-Express akan memiliki koneksi 1x. Hal ini akan menyediakan bandwidth yang cukup untuk koneksi internet berkecepatan tinggi dan periferal lainnya. Maksud dari "1x" adalah bahwa di sana ada satu jalur yang membawa data. Jika sebuah komponen membutuhkan bandwidth yang lebih besar, slot PCI-Express 2x, 4x, 8x, dan 16x dapat dipasangkan pada motherboard, memberikan jalur tambahan dan memungkinkan sistem untuk membawa data yang lebih banyak melalui koneksinya. Menurut fakta, slot PCI-Express 16x sudah tersedia pada slot kartu grafis AGP di beberapa motherboard. Video card PCI-Express 16x saat ini menjadi ujung tombak, dengan biaya lebih dari 500USD. Seiring dengan turunnya harga dan motherboard yang dibangun untuk menangani kartu ekspansi yang terbaru telah menjadi sesuatu yang umum, AGP bisa saja berubah menjadi tinggal sejarah.

Jika artikel ini bermanfaat, silakan share.
______________________________
Source: How Stuff Works

System Bus

Di dunia komputer, system bus adalah jalur (bus, baca: "bas") tempat di mana data berinteraksi antara komponen yang satu dengan komponen yang lain. Ada berbagai macam jenis bus yang ada di dalam komputer. Namun jenis bus yang paling dikenal untuk jenis komputer standar PC adalah bus yang menghubungkan CPU (Processor) dengan chipset (Northbridge).

Tipe bus secara umum bisa dikategorikan menjadi dua bentuk. Pertama, tipe bus internal yang biasa disebut system bus, dan ke-dua, bus eksternal yang berfungsi untuk menghubungkan berbagai periferal atau alat-alat eksternal, slot ekspansi, port I/O, dan berbagai komponen drive. Bus eksternal ini akan memungkinkan penambahan kemampuan komputer. Biasanya bus eksternal berjalan pada kecepatan yang lebih rendah dibandingkan system bus. Bus eksternal juga biasa disebut sebagai expansion bus.

Sejarah dan Implementasi Saat Ini 
Diagram Front Side Bus konvensional
Untuk sejarah perkembangan dan aplikasinya, system bus ini kami rujuk pada Front Side Bus (FSB) khususnya untuk jenis PC. FSB sendiri bisa dikatakan sebagai alternatif bus data maupun bus address dari processor yang memang sudah ditetapkan dalam datasheet oleh produsen CPU itu sendiri.

Penerapan dalam arsitektur komputer dan fungsinya untuk menghubungkan CPU dan komponen-komponen lain, biasanya dijembatani oleh komponen yang kita kenal sebagai chipset. Chipset ini terbagi menjadi dua bagian yang masing-masing memiliki fungsi utama tersendiri. Chipset tersebut adalah Northbridge dan Southbridge. Penamaan seperti ini memang lebih dikarenakan posisi dalam diagram system bus, dimana dua chipset utama tersebut diposisikan satu diatas dan satu lagi dibawah.

Fungsi utama northbridge adalah sebagai controller untuk main memory (RAM), selain sebagai penghubung dengan komponen I/O keseluruhan yang diatur oleh chipset southbridge. System bus bukan hanya meliputi FSB saja, tapi juga meliputi bus seperti AGP, PCI, dan sebagainya. Sistem bus sekunder ini biasanya berjalan pada kecepatan yang berdasar kepada kecepatan FSB, namun tidak harus selalu sinkron dengan FSB tersebut.

Perkembangan berikutnya, setelah sekian lama system bus yang berkutat berdasarkan desain FSB, pada beberapa tahun terakhir gebrakan terbaru dengan mulai hadirnya solusi koneksi system bus point-to-point seperti AMD HyperTransport dan juga Intel QuickPath Interconnect. Dengan ini desain FSB mulai ditinggalkan, walaupun dari beberapa produk processor Intel masih ada yang menggunakan sistem FSB konvensional. Hal ini awalnya dikarenakan kritikan AMD yang menganggap FSB sudah ketinggalan, dan juga akan menjadi bottleneck dari processor-processor modern yang makin cepat.

Bandwidth dan Kecepatan
Bandwidth maupun kecepatan maksimal throughput FSB ditentukan dari perhitungan lebar data, frekuensi clock (siklus per detik), dan seberapa banyak transfer data yang dapat dilakukan dalam satu siklus clock. Sebagai contoh, lebar data FSB 64-bit (8-byte) yang berjalan pada clock 100 MHz yang dapat melakukan 4 kali transfer data, memiliki bandwidth sebesar 3200 MB/s.
Diagram processor AMD dengan interface HyperTransport

Seberapa banyak transfer data yang dapat dilakukan, tergantung kepada teknologi yang digunakan. Misalnya pada teknologi pensinyalan (signaling) yang digunakan pada FSB untuk sistem Intel yang menggunakan teknologi GTL+ (Gunning Transciever Logic), dapat melakukan 1 transfer per detiknya. Penggunaan GTL+ dipopulerkan pada seri processor Pentium II dan III. Berbeda dengan AMD pada seri Athlon, ia menggunakan teknologi EV6 untuk pensinyalan clock FSB yang dapat melakukan 2 transfer per detik. Jawaban Intel terhadap EV6 adalah penggunaan ATGL+ yang dapat melakukan 4 transfer per detik (biasa dikenal dengan quad-pump) pada seri processor Pentium 4 hingga seri Core 2.

Untuk itu kadang ditemukan penentuan FSB bisa dalam bentuk MHz, maupun kecepatan aktualnya secara kemampuan transfer MT/s (Megatransfer/second). Walaupun keseluruhan rata-rata masih berbasis kecepatan efektif teoritis saja.

Kecepatan tertinggi dari sistem FSB saat ini mencapai 1.6 GT/s (Gigatransfer/second), yang hanya setengah dari unindirectional QPI. QPI Bi-directional memiliki bandwidth 6.4 GT/s. Bila dibandingkan dengan teknologi bus HyperTransport sendiri, FSB hanya sebesar 80% dari bandwidth maksimal yang dapat dicapai HyperTransport saat ini.

Dalam hubungan antara FSB dengan sistem komputer keseluruhan untuk berbagai kecepatan yang dimiliki tiap bus adalah sebagai berikut:
1. CPU (Processor)
Kecepatan clock frekuensi yang dimiliki oleh processor, dalam beberapa kasus ditentukan dengan mengaplikasikan multiplier terhadap FSB. Sebagai contoh, jika sebuah processor berjalan pada kecepatan FSB 3200 MHz, bisa saja ia menggunakan kecepatan FSB 400 MHz. Ini artinya terdapat setting clock multiplier internal (biasa disebut bus/core ratio) sebesar 8. Dengan kata lain, processor diset berjalan pada kecepatan 8 kali FSB: 400MHz x 8 = 3200MHz (3,2 GHz). Dengan memvariankan kecepatan FSB maupun jumlah multiplier, dapat diperoleh berbagai kecepatan processor.

2. Memory
Setting kecepatan FSB berhubungan erat dengan tingkatan kecepatan memori yang harus digunakan. Memori bus ini menghubungkan northbridge dengan RAM, sama halnya FSB yang menghubungkan processor dengan northbridge. Kadangkala kedua bus ini harus berjalan pada frekuensi yang sama (synchronous). Meningkatkan kecepatan FSB hingga 450 MHz biasanya juga akan membuat memori berjalan pada clock 450 MHz juga.

Pada sistem yang lebih baru, kadang bisa juga ditemukan rasio memori “4:5”, dan semacamnya (asynchronous). Dengan kata lain, memori akan berjalan pada kecepatan 5/4 kali dibandingkan FSB, atau pada sistem dengan FSB 400 MHz memori berjalan pada kecepatan 500 MHz. Perlu diperhatikan bahwa dengan perbedaan processor dan arsitektur sistem, kinerja keseluruhan dapat bervariasi bila menggunakan kecepatan FSB dan memori yang berbeda (asinkron).

3. Bus Peripheral
Sama seperti bus memory, bus untuk peripheraal seperti AGP maupun PCI juga berjalan pada kecepatan yang tidak sama (asynchronous) dengan FSB. Pada sistem yang lebih tua, bus-bus ini bahkan berjalan pada kecepatan yang jauh lebih rendah dibandingkan dengan FSB. Setting ini biasanya ditentukan oleh BIOS. Pada sistem yang lebih baru, periferal bus PCI, AGP, atau juga PCI Express biasanya sudah memiliki sinyal clock tersendiri, yang dengan kata lain tidak lagi bergantung pada kecepatan FSB untuk timing-nya.

4. Overclock
Overclock adalah proses untuk membuat komputer maupun komponen-komponen pembangunnya berjalan pada clock yang diluar dari standar clock default-nya. Proses ini yang berhubungan dengan FSB dan Multiplier, biasanya dapat dilakukan secara langsung dengan mengubah jumper di motherboard atau mengubah setting di BIOS. Walaupun keleluasaan ini biasanya hanya ada pada jenis motherboard khusus untuk overclocking.
Diagram system bus keseluruhan dengan menggunakan HyperTransport
Selain karena proses overclocking berisiko akan memperpendek umur komponen, ia juga akan menghilangkan garansi. Dalam menanggulangi hal ini, produsen processor biasanya mengimplementasikan preset multiplier yang sudah terkunci “lock” kedalam chip. Sehingga tidak memungkinkan pengguna untuk mengubah-ubah multiplier lagi. Walaupun dari beberapa generasi processor terdapat kemungkinan untuk melakukan overclock melalui cara modding terhadap processor itu sendiri sehingga perubahan multiplier dimungkinkan. Cara lain bisa dilakukan dengan memaksakan FSB berjalan lebih cepat lagi dengan ikut meningkatkan voltase agar tercapai kestabilan.
Interface HyperTransport pada processor Quad Core


System Bus Modern
Perkembangan system bus yang lebih canggih mengarah kepada multi-link point-to-point interconnect. Di mana kelebihannya terutama terletak pada sisi bi-directional, yakni transaksi proses aliran data dapat berlangsung bersamaan untuk mengirim (send) maupun menerima (receive), dan juga tingkatan bandwidth yang lebih besar.

Selain itu tendensi yang mengharuskan penempatan memory controller di dalam processor, membuat akses data menjadi lebih cepat  (latency yang mekin kecil). Kelebihan lain adalah sisi direct-connect untuk masing-masing komponen yang terhubung memiliki jalurnya masing-masing. Hal ini meniadakan sharing jalur data yang biasanya ditemukan pada FSB konvensional, yang menambah waktu delay untuk mengirim maupun menerima data.
Diagram interface bus QuickPath Interconnect
Dominasi komputer personal masih dipegang oleh dua hardware pembuat CPU, yaitu AMD dan Intel. Masing-masing dengan teknologi HyperTransport dan QuickPath Interconnect.

Berikut jenis teknologi bus-bus modern yang digunakan oleh dua basis processor yang paling banyak digunakan di dunia komputer personal saat ini.

1. AMD: HyperTransport
HyperTransport sebelumnya dikenal dengan Lightning Data Transport (LDT) yang merupakan bus link point-to-point, bi-directional serial/parallel high-bandwidth yang mulai dikenalkan pada 2 April 2001.

Teknologi bus ini dikembangkan dan dipromosikann oleh HyperTransport Consortium yang terdiri dari AMD, Alliance Semiconductor, Apple Computer, Broadcom Corporation, Cisco Systems, nVIDIA, PMC-Sierra, Sun Microsystems, dan Transmeta. Hingga tahun 2009, konsorsium ini sudah memiliki 50 anggota. Teknologi ini digunakan pada processor x86 oleh AMD dan Transmeta, lalu implementasi pada chipset digunakan oleh AMD, nVIDIA, VIA, dan SiS.

HyperTransport hadir dalam bentuk 4 versi kecepatan, versi 1.x, 2.0, 3.0, dan 3.1. Dengan jangkauan kecepatan clock dari 200 MHz-3200 MHz. Teknologi ini juga menggunakan koneksi DDR (Double Data Rate), yang artinya transaksi data terjadi pada sinyal clock rising dan falling. Hal ini memungkinkan maksimal data rate hingga 6400 MT/s pada kecepatan clock 3200 MHz.

HyperTransport mendukung auto-negotiated bit width secara otomatis menggunakan link sesuai kebutuhan. Jangkauan auto-negotiated bit ini dari 2 hingga 32-bit link interconnect. Pada width dan kecepatan tertinggi, yakni 32-bit interconnect memiliki transfer rate hingga 25.6 GB/s tiap directional (send/receive).

Meski HyperTransport ini mampu mencapai 32-bit width link, lebar data ini tidak digunakan oleh AMD pada seri processor-nya. Untuk semua seri processor AMD yang menggunakan HyperTransport, hanya menggunakan 16-bit link, dan juga batasan kecepatan hingga 2.6 GHz saja. Memang beda halnya dengan seri processor Workstation Opteron, dan Athlon64 FX (1207) yang menggunakan tiga 16-bit link.

2. Intel: QuickPath Interconnect (QPI)
QuickPath Interconnect (QPI) adalah point-to-point processor interconnect yang dikembangkan oleh Intel untuk bersaing dengan teknologi HyperTransport yang digunakan oleh AMD untuk system bus dari processor next-generation-nya.

Sebelum menggunakan nama QPI, Intel merujuk kepada nama Common System Interface (CSI). Pengembangan teknologi dari QPI dilangsungkan di Intel MDDC (Massachusetts Microprocessor Design Center) oleh anggota dari grup DEC Alpha Development (grup ini diakuisisi oleh intel). DEC ini sebelumnya adalah yang mengembangkan bus EV6 yang digunakan oleh AMD pada generasi processor Athlon pertama.
Dalam bentuknya yang paling sederhana (single processor), sebuah QPI link berfungsi untuk menghubungkan processor dengan I/O Hub (Intel Core i7 dengan Chipset X58). Dalam arsitektur yang lebih kompleks, beberapa QPI link yang berbeda dapat digunakan untuk menghubungkan satu atau lebih processor, dan satu atau lebih I/O Hub dalam sebuah jaringan didalam motherboard. Hal ini memungkinkan semua komponen dapat mengakses komponen lain via jaringan ini.

Sama seperti HyperTransport, teknologi QuickPath menggunakan pemasangan memory controller di dalam processor dalam bentuk Non-Uniform Memory Architechture (NUMA).

Tiap QPI terbentuk dari 20-lane-point-to-point link data, masing-masing untuk tiap arah (duplex, send/receive). Tiap arah dilengkapi dua clock dengan total 42 sinyal. Tiap sinyal memiliki sepasang jalur yang berbeda, jadi total satu QPI link adalah 84 pin. Dari 20-lane data ini dibagi menjadi 4 quadrant yang terdiri dari 5 lane.

Awalnya, implementasi QPI menggunakan kesemua 4 quadrant ini. Namun spesifikasi dari QPI memungkinkan untuk digunakan dalam konfigurasi lain. Dimana setiap quadrant dapat digunakan secara independen. Pada inplementasi awal untuk Nehalem, kesemua 4 quadrant digunakan dengan maksimal bandwidth yang didapatkan mencapai 25.6 GB/s. Ini persis dua kali lipat bandwidth dari FSB 1600 MHz yang digunakan pada chipset Intel X48.

DMI (Direct Media Interface)
Alternatif system bus yang digunakan oleh Intel adalah DMI. Bus ini bukanlah interface generasi baru. Namun karena implementasi arsitektur Intel Core i5/i7 dengan socket LGA-1156 (platform chipset P55), semua fungsi northbridge beralih ke processor (mengintegrasikan memory controller dan bus graphic subsystem/PCI Express x16).

Lalu karena standar koneksi Intel northbridge dengan southbridge menggunakan interface DMI, secara otomatis platform Intel yang baru ini juga menggunakan DMI. Meskipun dimungkinkan hadirnya teknologi bus yang baru berdasarkan arsitektur ini. Sisi kecepatan maksimal DMI hanya mencapai 2 GB/s. Hal ini cukup lumrah, mengingat tidak dibutuhkan interface yang cepat dalam aliran data di southbridge.
Mengintegrasikan memory controller dan PCI Express ke processor
Jika artikel ini bermanfaat, silakan share.
______________________________
Source: Wawa Sundawa, PCMedia edisi 01/2010, hal 72-75

Rabu, 21 Januari 2015

32-bit vs 64-bit

Dalam sistem komputer, Istilah 32-bit dan 64-bit merujuk pada bagaimana prosesor (CPU) pada komputer menangani informasi. Sistem operasi 64-bit dapat menangani penggunaan RAM dalam jumlah besar dengan lebih efektif dibandingkan dengan sistem 32-bit.

Apa itu bit?
Sebelum berbicara lebih lanjut, alangkah baiknya jika kita bahas sekilas tentang bit itu sendiri. Bit merupakan singkatan dari binary digit (digit biner). Sebagaimana yang umum diketahui oleh kalangan IT, bahwa komputer hanya mengenal dua digit bilangan, yaitu 0 dan 1 yang lebih dikenal dengan bilangan berbasis 2 atau bilangan biner. Dari biner inilah kemudian komputer dapat mengonversi ke dalam bentuk oktal (berbasis 8), desimal (berbasis 10), dan heksadesimal (berbasis 16).
Terdapat rumus sederhana untuk menghitung bilangan desimal dari nilai bit, yaitu:
2x = y
Dimana: x = nilai bit dan y = nilai desimal.
Dengan demikian, maka:
1-bit = 21 = 2 desimal
2-bit = 22 = 4 desimal
4-bit = 24 = 16 desimal
8-bit = 28 = 256 desimal, dst.

Teori bit di atas juga digunakan dalam kedalaman warna (color depth) dan audio. Dalam color depth, gambar 1-bit berarti hanya terdiri dari 2 warna saja, hitam dan putih. Semakin tinggi nilai bit-nya, maka semakin banyak komposisi warna yang dimiliki, sehingga gambar akan terlihat lebih nyata. Itu berarti gambar dengan 24-bit memiliki komposisi 16.777.216 warna (biasanya penyebutannya dimudahkan dengan 16 juta warna).
Perbedaan komposisi warna sebuah gambar (klik gambar untuk memperbesar)
Berdasarkan penelitian, mata manusia hanya mampu mendeteksi sekitar 10 juta warna.
Dalam sistem komputer, 32 dan 64-bit merujuk pada kemampuan sistem operasi dalam menggunakan RAM.
32-bit = 4.294.967.296 Bytes
64-bit = 18.446.744.073.709.551.616 (1 x 1019) Bytes.

Sistem operasi 32-bit dapat mengakses RAM berkapasitas sekitar 4 GB (GigaBytes), sementara OS 64-bit mampu mengakses RAM sebesar 16 EB (ExaBytes), kira-kira setara dengan 16 milyar GB. Pernah berpikir memiliki RAM sebesar itu?

Ada apa dengan RAM?
Sebelumnya akan dibahas sekilas perbedaan RAM dengan HDD.
HDD (Harddisk Drive) berfungsi sebagai media penyimpanan ‘permanen’ dengan kapasitas besar dan memiliki jalur akses yang lambat. Di sisi lain, RAM berfungsi sebagai media penyimpanan sementara dengan kapasitas kecil, namun memiliki akses yang sangat cepat, bahkan lebih cepat dari SSD (Solid State Drive).
Data-data yang disimpan dalam HDD merupakan data personal milik pengguna komputer. Sementara RAM berfungsi untuk menyimpan data-data yang dikerjakan oleh processor. Sehingga, semakin banyak ruang yang dimiliki RAM, semakin banyak pula kerja yang dapat dilakukan oleh processor, dan hal ini berpengaruh pada kecepatan respons komputer di bawah beban yang lebih berat.
Anda tentu pernah melihat komputer yang terkadang menampilkan program dengan status Not Responding. Hal ini biasa terjadi ketika komputer sedang menjalankan banyak aplikasi secara bersamaan sehingga menambah beban pada RAM, terutama aplikasi yang membutuhkan resource memori yang cukup besar seperti produk dari Adobe dan lain sebagainya.

Kompatibilitas
Apabila sebuah komputer memiliki CPU 32-bit, maka sistem operasi dan aplikasi yang digunakan haruslah versi 32-bit, karena komputer tidak akan dapat menerima sistem operasi maupun aplikasi dalam versi 64-bit.
Sebaliknya, CPU 64-bit dapat menjalankan sistem operasi dan aplikasi 32-bit. Perlu diingat, bahwa keadaan ini hanya berlaku apabila CPU 64-bit menjalankan OS yang juga 64-bit. Hal ini berarti CPU 64-bit yang menjalankan OS 32-bit tidak dapat menjalankan aplikasi 64-bit.
Meskipun demikian, ada beberapa pengembang aplikasi yang membuat aplikasi 32-bit mereka tidak dapat berjalan pada sistem 64-bit. Dan biasanya pengembang aplikasi tersebut telah menyediakan versi 64-bit secara terpisah.

Check your System!
Anda dapat mengetahui apakah CPU komputer Anda memiliki arsitektur 32-bit atau 64-bit.
Untuk pengguna Win 7, klik kanan pada My Computer, lalu pilih Properties.
Untuk pengguna Win 8, tekan kombinasi tombol [Windows] + [i] pada keyboard, lalu pilih PC info.
Menu Settings pada Windows 8 / 8.1 (klik gambar untuk memperbesar)
Setelah muncul jendela System Properties, silakan lihat pada bagian System type.
Jendela System Properties (klik gambar untuk memperbesar)
Jika terdapat keterangan: 64-bit Operating System, x64-based processor, berarti komputer tersebut memiliki CPU 64-bit dan menjalankan OS 64-bit. Itu artinya komputer tersebut secara umum dapat menjalankan aplikasi baik 32-bit maupun 64-bit.

Jika terdapat keterangan: 32-bit Operating System, x64-based processor, berarti komputer tersebut memiliki CPU 64-bit dan menjalankan OS 32-bit. Dengan demikian, aplikasi yang dapat dijalankan adalah aplikasi 32-bit. Karena CPU pada komputer tersebut adalah 64-bit, itu artinya komputer tersebut dapat menjalankan OS 64-bit.

Jika terdapat keterangan: 32-bit Operating System, x86-based processor, berarti komputer tersebut memiliki CPU 32-bit dan menjalankan OS 32-bit. Dengan demikian, aplikasi yang dapat dijalankan adalah aplikasi 32-bit. Perlu diingat bahwa CPU x86 (32-bit) tidak dapat menjalankan OS 64-bit.

Kesimpulan
Pada sistem komputer, istilah 32-bit dan 64-bit mengacu pada kemampuan OS dalam mengakses RAM, di mana OS 64-bit dapat menangani RAM dalam jumlah yang sangat besar hingga 16 milyar GB. Sementara OS 32-bit hanya dapat mengakses RAM maksimal 4GB saja.
Oleh sebab itu, apabila Anda ingin mengoptimalkan kinerja komputer yang memiliki CPU dan OS 64-bit, maka sebaiknya komputer Anda memiliki RAM minimal sebesar 4GB.
Namun bagi Anda yang memiliki komputer dengan [CPU 32-bit dan OS 32-bit] atau [CPU 64-bit dan OS 32-bit], kapasitas RAM yang digunakan sebaiknya tidak lebih dari 4GB.

Jika artikel ini bermanfaat, silakan share.

Sabtu, 17 Januari 2015

Mengenal TDP pada Processor

Semakin kecil TDP, maka panas yang dihasilkan juga semakin rendah.
Tentunya bagi Anda yang memiliki perangkat elektronik, seperti komputer desktop, notebook, atau smartphone pasti pernah merasakan panas pada perangkat tersebut ketika beroperasi. Hal tersebut merupakan hal yang alami terjadi dikarenakan adanya perubahan energi. Dalam istilah teknisnya dikenal dengan Central Processing Unit Dissipation atau CPU dissipation yang berarti CPU mengonsumsi energi listrik, kemudian mengubahnya ke dalam aksi switching, seperti yang dilakukan transistor dalam CPU. Dalam prosesnya, CPU juga akan menghasilkan energi panas ketika beroperasi dikarenakan adanya impedansi dari sirkuit elektronik. Dari sinilah proses panas itu terjadi.

Berbicara masalah panas, tentu erat kaitannya dengan Thermal Design Power (TDP) processor. Istilah ini diterjemahkan sebagai jumlah daya maksimum untuk pendingin di dalam sebuah komputer untuk berdisipasi (mentransfer/menyalurkan panas). TDP juga dapat berarti daya maksimum yang dipakai ketika menjalankan aplikasi sesungguhnya untuk memastikan komputer dapat menjalankan aplikasi esensial tanpa melampaui batas panasnya.

Salah satu tantangan yang dihadapi oleh produsen processor seperti Intel adalah bagaimana merancang sebuah processor yang mampu beroperasi hanya dengan konsumsi daya yang rendah tanpa harus mengorbankan performanya. Berbagai langkah ditempuh untuk merealisasikan hal ini, seperti mengintegrasikan berbagai komponen dalam satu unit, memperkecil kebocoran energi untuk meningkatkan efisiensi, hingga menambahkan fitur energy saving sebagai power management. Seluruh langkah tersebut akhirnya berhasil dikemas Intel dalam rancangan 3D gate transistor-nya yang akhirnya diterapkan mulai dari generasi Sandy Bridge, Ivy Bridge, Haswell, hingga Intel Atom Bay Trail saat ini, bahkan semenjak generasi Ivy Bridge, Intel menambahkan SKU baru pada segmen processor mobile dengan suffix U dan Y. “U” menandakan Ultra low power seperti pada Intel Core i5-3317U (1.7GHz/ 17W), dan “Y” menandakan Extreme Ultra low power seperti pada Intel Core i5-3439Y (1.5GHz/ 13W). Bandingkan dengan generasi processor sebelumnya seperti Intel Core i5-2410M (2.3GHz/ 35W) yang nilai performa Intel Core i5-3317U mampu mengimbangi bahkan dengan konsumsi daya yang lebih rendah. Hal tersebut diperlihatkan melalui pengujian 3DMark 11 CPU score dan PCMark 8 Accelerated, seperti pada grafik di bawah. (klik gambar untuk memperbesar)
TDP Rate
Secara umum, semakin tinggi rating TDP processor, akan menghasilkan panas lebih daripada yang memiliki rating TDP lebih rendah. TDP biasanya juga terspesifikasi dalam keluarga processor. Pada processor Intel, TDP rating didefinisikan pada nilai maksimum temperatur core (Tj-MAX) sehingga tiap OEM dapat merancang model dan casing serta menentukan jenis cooling yang digunakan. Pada umumnya, processor yang memiliki rating TDP melebihi 50W biasanya diterapkan pada jenis desktop PC, sedangkan TDP yang kurang dari 50W dapat dikelompokkan pada jenis notebook. TDP yang kurang dari ~5W dapat dimasukkan dalam kategori tablet dan TDP yang kurang dari ~2W masuk dalam kategori smartphone.

Melihat pemaparan di atas, cukup jelas jika processor yang memiliki TDP rendah akan menghasilkan panas yang rendah pula sehingga jenis heatsink yang digunakan pun desainnya lebih sederhana, bahkan tanpa dukungan fan. Berbeda dengan processor yang memiliki TDP tinggi, jenis pendingin yang digunakan haruslah jenis khusus, biasanya menggunakan heatsink dengan tambahan fan atau metode pendingin lain, seperti heatpipe, water cooling, hingga LN2 (Liquid Nitrogen).

Hyperthreading vs Power Dissipation
Beberapa dari Anda mungkin sudah familiar dengan istilah hyperthreading. Istilah ini mengacu pada pemrosesan dan eksekusi dari sebuah instruksi program secara paralel untuk mengoptimalkan kinerja processor. Lebih mudahnya, teknologi hyperthreading merupakan teknologi untuk menciptakan logical core yang dapat berlaku sebagai core fisik yang mampu bertindak secara independen dalam mengeksekusi suatu instruksi. Lalu apa kaitannya fungsi hyperthreading dengan power dissipation? Sebelum menjawab hal ini, terlebih dahulu kita bandingkan teknologi hyperthreading dengan teknologi multi-core konvensional. Pada teknologi multi-core konvensional, tiap core terpisah secara fisik. Masing-masing core berisi jutaan hingga miliaran transistor yang wajib mendapat supply daya untuk beroperasi. Dengan teknologi hyperthreading, tiap core akan memiliki dua logical core sehingga processor dengan dual core fisik akan memiliki 4 thread/logical core yang tiap logical core ini tidak membutuhkan resource komponen tambahan. Artinya, peningkatan panas dan daya tidak akan terjadi secara signifikan dengan hyperthreading. Sebaliknya, performa yang dihasilkan akan meningkat secara signifikan.

Untuk melihat seberapa efektif penggunaan teknologi hyperthreading ini, kami melakukan pengujian dengan sebuah aplikasi benchmark, yaitu Cinebench R11.5. Aplikasi ini akan mengukur seberapa jauh kemampuan processor dalam melakukan operasi rendering sebuah gambar. Untuk perangkat test bed-nya sendiri, kami menggunakan GIGABYTE Brix S yang sudah dilengkapi processor Intel Core i3-4010U (2C/4T). Perangkat GIGABYTE Brix S ini merupakan sejenis NUC dengan form factor UCFF yang sangat ringkas dan kompak. Unit pendinginnya pun hanya mengandalkan heatsink dan kipas kecil, mengingat processor yang digunakannya hanya memiliki TDP kisaran 17W.

Dari hasil pengujian tersebut, dapat disimpulkan bahwa penggunaan teknologi hyperthreading ternyata mampu meningkatkan performa hingga mencapai hampir 200% meski memberikan dampak peningkatan konsumsi daya serta temperatur. Namun jika diperhatikan, peningkatannya pun tidak terlalu signifikan, hanya 2o atau sekitar 3% dari temperatur penggunaan single core.

Jika artikel ini bermanfaat, silakan share.
______________________________
Sumber: PCMedia (4 Juni 2014)

Senin, 05 Januari 2015

Step by Step Instalasi Visual Studio Community 2013

Beberapa waktu lalu, Microsoft Corporation telah meluncurkan beberapa versi terbaru dari Visual Studio, salah satunya ialah Visual Studio Community 2013. Namun saya baru sempat membahasnya saat ini.
Bagi Anda yang belum tahu, Visual Studio adalah tool Integrated Development Environment (IDE) dari Microsoft. Software ini biasa digunakan untuk mengembangkan program-program komputer Microsoft Windows, diantaranya ialah membangun website, web application, web services, dan sebagainya.
Selain itu, Visual Studio (VS) juga mendukung beberapa bahasa pemrograman, diantaranya: C, C++, C#, F#, VB.NET, Phyton, Ruby, HTML5, XML, JavaScript, dan CSS. VS juga dapat digunakan untuk pemrograman web yang mendukung ASP.NET, Node.js, dan JavaScript.
Tidak hanya sampai disitu, dengan menyertakan tool Apache Cordova dan Unity, VS juga mendukung untuk mengembangkan aplikasi mobile, seperti Windows Phone, iOS, dan Android.
Sebenarnya masih banyak fitur-fitur yang disertakan dalam VS, dan akan memakan banyak waktu jika membahasnya satu persatu.

Anda dapat men-download Visual Studio melalui situs: http://www.visualstudio.com/downloads/download-visual-studio-vs. Di halaman tersebut disediakan link download untuk seluruh versi VS, termasuk versi Community 2013.
Jika Anda ingin meggunakan versi Community 2013, klik pada pilihan Community 2013 with Update 4. Selanjutnya Anda akan dihadapkan pada pilihan instalasi. Anda dapat meng-install-nya secara online dengan mengklik Install now, atau Anda juga diperbolehkan men-download stand-alone installer berbentuk file .iso dengan meng-klik pilihan DVD5 ISO image.
Jika Anda memutuskan untuk men-download file iso, maka sebaiknya Anda bersabar, karena ukuran file-nya cukup besar, sekitar 6,8 GB.

Sebelum Anda menginstalnya, ada baiknya memperhatikan dulu kebutuhan minimum sistem yang diperlukan (sumber: Visual Studio):
Sistem Operasi: Windows Server 2008 R2 SP1 (x64) | Windows Server 2012 (x64) | Windows Server 2012 R2 (x64) | Windows 7 SP1 (x86 & x64) | Windows 8 (x86 & x64) | Windows 8.1 (x86 & x64)
Hardware:
  • Clock-speed prosesor 1.6 GHz
  • RAM 1 GB
  • HDD 5400 RPM
  • Ruang HDD 20 GB (Meskipun hanya 9 GB saja yang digunakan oleh VS)
  • VGA card mendukung DirectX 9 pada resolusi layar 1024x768.
  • Minuman dan camilan untuk mengisi waktu sambil menunggu proses instalasi.
Berikut adalah langkah-langkah proses instalasi Microsoft Visual Studio Community 2013 untuk stand-alone installer.
1. Setelah file ter-download, ekstrak file menggunakan program winRAR atau sejenisnya, lalu jalankan file vs_community.exe.

2. Isi checkbox I agree to the License Terms and Privacy Policy. Lalu Next.
3. Pilih fitur-fitur apa saja yang ingin di-install. Jika bingung, biarkan saja sebagaimana default, dan langsung saja klik INSTALL. Tunggu hingga proses instalasi selesai. Karena prosesnya cukup lama, silahkan tunggu sambil minum dan makan camilan yang sudah disiapkan.
4. Setelah muncul pesan Setup Completed!, langsung saja klik LAUNCH.
5. Jika Anda sudah memiliki account di Microsoft, silahkan klik Sign in. Jika tidak punya, klik Not now, maybe later.
6. Jika Anda memiliki account di Visual Studio dan ingin menyimpan project Anda di sana, silakan isi account Anda dan klik Continue, jika tidak, klik Not now, maybe later.
 7. Selanjutnya akan muncul jendela untuk mengonfigurasi Development Settings dan color theme. Untuk Development Setting, silakan pilih sesuai dengan kebutuhan Anda dalam menggunakan VS Community 2013 ini.
8. Setelah selesai, maka Visual Studio akan menampilkan halaman Start page.
9. Berikutnya, Anda tinggal klik New Project untuk membuat project  baru, atau Open Project untuk membuka project yang sudah Anda miliki.
Tampilan jendela New Project

Semoga postingan ini bisa membantu Anda. Terima kasih.
Jika artikel ini bermanfaat, silakan share.

Minggu, 04 Januari 2015

Mengubah Maksimum Value Select dan Edit Top Rows pada SQL Server Management Studio

SQL Server Management Studio adalah tool yang dikembangkan oleh Microsoft untuk mengatur database yang tersimpan pada SQL Server.

Jika Anda adalah pengguna SQL Server Management Studio (saya menggunakan versi 2014 Express), pada context menu yang ditampilkan ketika meng-klik kanan pada table, diantara banyak pilihan yang ditampilkan, terdapat dua buah pilihan, yaitu "Select Top 1000 Rows" dan "Edit Top 200 Rows". Tujuan dari kedua pilihan tersebut sudah jelas, yaitu untuk memilih 1000 baris data teratas, dan mengubah 200 baris data teratas. Hal ini bukan masalah selama Anda memiliki tabel data yang tidak lebih dari 1000 baris.
Pertanyaannya, bagaimana jika Anda memiliki data yang lebih dari 1000 baris, sedangkan Anda ingin memilih atau mengubah seluruh baris data?
Pertanyaan yang sama juga pernah terlintas di pikiran saya ketika sedang bekerja dengan tabel data mahasiswa yang berisi tepatnya 18.696 baris data, cukup besar memang. Setelah cari sana cari sini, akhirnya saya menemukan triknya, yang ternyata cukup mudah dan telah disediakan oleh SQL SMS sendiri.

Berikut adalah langkah-langkah bagaimana mengganti dua buah pilihan tersebut sehingga tidak lagi memiliki batas maksimum (1000 dan 200).
1. Klik pada menu Tools,  pilih Options...
2. Setelah  jendela Options terbuka, pada menu navigasi sebelah kiri pilih menu SQL Server Object Explorer. Selanjutnya ubah value pada pilihan yang ada dalam grup Table and View Options.
  • Value for Edit Top <n> Rows command
  • Value for Select Top <n> Rows command
Anda bisa dengan mudah mengganti value sesuka hati, namun jika Anda ingin memilih dan mengubah seluruh baris data, cukup ganti nilainya dengan 0.
Sekarang, dua pilihan sebelumnya telah berubah menjadi "Select All Rows" dan "Edit All Rows".
Semoga postingan ini bisa membantu.
Jika artikel ini bermanfaat, silakan share.