TOP

Retries Settings

Ada beberapa alasan mengapa konfigurasi ini akan sangat berguna. Sebagai contoh, ketika tiba-tiba Anda kehilangan koneksi internet pada pertengahan proses, maka software akan mencoba mengeksekusi ulang konteksnya sampai koneksi internet kembali stabil.

Keuntungan lain dengan mengkonfigurasikan opsi ini adalah, ketika proxy ditetapkan pada servis tertentu dan entah bagaimana servis tersebut gagal menjalankan tugasnya, software akan mencoba merotasi dan mengubah proxy sebelum mencoba eksekusi ulang.

Ini bagus, karena secara internal kami memiliki sesuatu yang dinamakan raw validation method didalam web crawler untuk validasi apakah halaman web benar-benar di rayapi dengan sempurna. Metode ini ditetapkan secara default ke situs populer seperti Google, Wikipedia, Bing, dll.

Peringatan: Semakin tinggi nilainya, proses pada tugas yang terasosiasi menjadi lebih lama.

Lebih singkatnya, fitur ini akan membuat setiap servis yang berjalan untuk mengerjakan tugasnya sebaik mungkin dan mengembalikan data yang diinginkan.

NamaPenjelasan
Web Crawler Retries

Jumlah maksimum percobaan jika terjadi error saat merayapi laman website.

Nilai default adalah 5, dan harus diantara 1-20.

Search Engine Crawler Retries

Jumlah maksimum percobaan jika terjadi error saat merayapi halaman pencarian search engine.

Nilai default adalah 5, dan harus diantara 0-100.

Domain Vanity Service Retries

Jumlah maksimum percobaan jika terjadi error saat mengirim permintaan ke server WHOIS (mengecek ketersediaan domain).

Nilai default adalah 2, dan harus diantara 0-100.

Web 2.0 Vanity Service Retries

Jumlah maksimum percobaan jika error terjadi saat mengecek ketersediaan blog atau web 2.0.

Nilai default adalah 5, dan harus diantara 0-100.

Statistic Engine Retries

Jumlah maksimum percobaan jika terjadi error saat mengambil metrik domain.

Nilai default adalah 5, dan harus diantara 0-100.