Hinnavaatlus
:: Foorum
:: Uudised
:: Ärifoorumid
:: HV F1 ennustusvõistlus
:: Pangalink
:: Telekavad
:: HV toote otsing
|
|
autor |
sõnum |
|
erikliiv
HV veteran
liitunud: 02.02.2004
|
12.01.2008 22:18:02
|
|
|
hanz kirjutas: |
üldiselt soovitaksin lihtsalt bandwidth'i juurde osta, kuna Google'it pole kunagi liiga palju... noh, vähemalt, kui sa soovid, et su foorum kasvaks.
aga ehk keegi seletab mida tähendab USA äridomeen? biz.us? kindlasti keegi seda omab, aga Google jääb siiski tavalise .com'i juurde. |
Ma ei kujuta ette mis see USA äridomeenid on. Igaljuhul Webalizer Version 2.01 leaiab:
Kasutus maade kaupa: 68.5% KBaite - USA äridomeenid. Muud statistikt uurides järeldan, et tegemist on googliga. Juurde ostma enne ei hakka kui aru ei saa täpselt põhjusest miks see nii on.
Google Webmaster Tools väidab, et:
Number of kilobytes downloaded per day: Maximum 411930, average 77266
Märkimisväärne on ka Webalizerist loetav pingerida sellest kes imevad andmeedastust:
1 55.88% crawl-66-249-72-99.googlebot.com
2 10.31% crawl-66-249-72-74.googlebot.com
3 2.14% crawl-15.cuill.com
Mis siis teha lõppude lõpuks? Vaikida ja osta suurem ruum?
|
|
Kommentaarid: 43 loe/lisa |
Kasutajad arvavad: |
|
:: |
1 :: |
0 :: |
39 |
|
tagasi üles |
|
|
mks
HV veteran
liitunud: 27.09.2004
|
12.01.2008 22:21:48
|
|
|
hanz kirjutas: |
Märkimisväärne on ka Webalizerist loetav pingerida sellest kes imevad andmeedastust:
1 55.88% crawl-66-249-72-99.googlebot.com
2 10.31% crawl-66-249-72-74.googlebot.com
3 2.14% crawl-15.cuill.com
Mis siis teha lõppude lõpuks? Vaikida ja osta suurem ruum? |
Eelpool on ju öeldud, mida teha, kui google andmeedastusmahtu imeb...
tsitaat: |
http://www.google.com/webmasters/tools
Põhim. pead tegema siin konto, tuvastama et oled lehe omanik ja seejärel kasutad kontos:
Dashboard > Tools > Set crawl rate > Slower A slower crawl will reduce Googlebot's traffic on your server, but we may not be able to crawl your site as often.
|
Sellest sinu webalizeri statsist ju üsna selgelt näha, et üle 60% liiklusest läheb googleboti alla...
|
|
Kommentaarid: 11 loe/lisa |
Kasutajad arvavad: |
|
:: |
0 :: |
0 :: |
9 |
|
tagasi üles |
|
|
Aq
HV kasutaja
liitunud: 01.01.2003
|
12.01.2008 22:21:58
|
|
|
Google vastu ma ju andsin lahenduse põhimõtteliselt.
Aga lisaks sellele võib veel ka vaadata, kuidas piirata leheküljelt andmete edastamis. Näiteks võimaldavad need BB süsteemid ühe ja sama teema piires mitmeid (isegi kümneid) erinevaid vaateid - st küll üks postitus lehel, küll 100 tükki lehel, vanemad ees, uuemad ees jne... Kui need on tekstilingid, käib Google need kõik läbi (iseasi kas ta nad kõik ka indekseerib).
Veel üks probleem, mis kohe mul peast läbi käib ja mis võimalik on - ega Sul ometi mitte sessiooni ID-d URLi abil edasi ei anta. Või ega ei ole nii, et muul moel on URLid ALATI erinevad. See on kõigile osapooltele halb.
Lehte ennast nägemata ei oska rohkem nõu andagi hetkel... või eks kui miskit meelde tuleb ma jälle postitan
|
|
Kommentaarid: 3 loe/lisa |
Kasutajad arvavad: |
|
:: |
0 :: |
0 :: |
3 |
|
tagasi üles |
|
|
Cemtey_old
HV vaatleja
liitunud: 13.06.2006
|
12.01.2008 23:11:44
|
|
|
.. kustutatud ..
viimati muutis Cemtey_old 04.05.2014 15:51:21, muudetud 1 kord |
|
Kommentaarid: 5 loe/lisa |
Kasutajad arvavad: |
|
:: |
0 :: |
1 :: |
4 |
|
tagasi üles |
|
|
Max Powers
liitunud: 21.03.2003
|
12.01.2008 23:14:52
|
|
|
tsitaat: |
Ahjaa - olete kuulnud kellestki kellele ei meeldi teenus mida alcapar pakub? Vist mitte - järeldus?
|
Mis seal ikka järeldada. Keegi pole sellisest teenusepakkujast kuulnudki.
Muidu sa võtad oma nn teenuse eest tasu ka? Kui jah, siis loodetavasti maksud ikka makstud.
|
|
Kommentaarid: 215 loe/lisa |
Kasutajad arvavad: |
|
:: |
3 :: |
2 :: |
182 |
|
tagasi üles |
|
|
mikk36
HV Guru
liitunud: 21.02.2004
|
13.01.2008 01:40:07
|
|
|
Cemtey kirjutas: |
mikk36 kirjutas: |
12h'ga saab lepingud ümber tehtud, serverid kolitud, dns'id
muudetud jne kolimisega seotud asjad tehtud ? |
Lepingud saab ümber teha kahe minutiga.
Milleks on vaja servereid kolida, kui ma saab muuta Interneti
kiirust serveri taga? DNS'idest rääkimata. |
koju saad gigabiti 2 minutiga ? irw
|
|
Kommentaarid: 85 loe/lisa |
Kasutajad arvavad: |
|
:: |
0 :: |
2 :: |
78 |
|
tagasi üles |
|
|
erikliiv
HV veteran
liitunud: 02.02.2004
|
13.01.2008 09:59:31
|
|
|
Või äkki oli tegemist ajutise põntsuga. Google'st saadud graafik ehmatab küll korraks ära...
|
|
Kommentaarid: 43 loe/lisa |
Kasutajad arvavad: |
|
:: |
1 :: |
0 :: |
39 |
|
tagasi üles |
|
|
Aq
HV kasutaja
liitunud: 01.01.2003
|
13.01.2008 13:35:13
|
|
|
Aga äkki see oli esimene kord, kui Google avastas Sinu lehe või vähemalt avastas seal oleva suuremahulise sisu.
Kasuks võib tulla ka Google Sitemap genereerimine. Sellega saad anda edasi infot selle kohta, millised lehed on muutunud jne, kuid ma ei tea tõesti kas BB-dele ja milliseid genereerijaid olemas on...
|
|
Kommentaarid: 3 loe/lisa |
Kasutajad arvavad: |
|
:: |
0 :: |
0 :: |
3 |
|
tagasi üles |
|
|
erikliiv
HV veteran
liitunud: 02.02.2004
|
19.01.2008 13:38:25
|
|
|
Aq kirjutas: |
Aga äkki see oli esimene kord, kui Google avastas Sinu lehe või vähemalt avastas seal oleva suuremahulise sisu.
Kasuks võib tulla ka Google Sitemap genereerimine. Sellega saad anda edasi infot selle kohta, millised lehed on muutunud jne, kuid ma ei tea tõesti kas BB-dele ja milliseid genereerijaid olemas on... |
Esimest korda Google sinna infot ammutama ei tulnud. Paar aastat juba käinud seal vaikselt. Mulle lihtsalt ei mahu pähe see, et leht ise võtab u.50MB aga seda google-bot peab seda sikutama 500MB/päevas. Eks ma uurin võimalusi mida teha annab...
EDIT:
googlebot, googlebot...
Keelasin (robots.txt) kõikidel robotitel, peale neti.ee oma, foorumis tuhnida. Aga ei lange see andmeedastus maht. Äkki mõni robot käib lehte saastamas ja tutvustab ennast googlebot-i nime alt. Kas kuidagi kogu seda "USA äridomeene", mis mul statistikas on, ei saa korraga ära keelata? Juurdepääsu keeld USA-st? Virtuaalserveri teenusepakkuja ei tahtnud ka pikalt asjaga tegeleda. Nii proovingi siit abi saada.
|
|
Kommentaarid: 43 loe/lisa |
Kasutajad arvavad: |
|
:: |
1 :: |
0 :: |
39 |
|
tagasi üles |
|
|
Aq
HV kasutaja
liitunud: 01.01.2003
|
19.01.2008 14:25:26
|
|
|
Teenusepakkuja tahab vist raha teenida... Muide, võid PSi teel teada anda, kellega tegemist on (teenusepakkuja osas).
Robots.txt-st (ja tegelt ka meta abil keelamisest). Minu "pikaajaline observatsioon" on pannud Googlebot'i puhul tähele mitmeid anomaaliaid. Ma ei taha väga julgelt Googleboti sõimata, kuna mõned neist anomaaliatest on vähemalt teoreetiliselt põhjendatavad. Aga - igasugune robots.txt abil ärakeelamine on "pikka vinnaga" vähemalt Googlebot puhul. Tal ikka läheb aega, enne kui aru saab, et tõepoolest on keelatud. Teine asi... kui ei taha avalikult oma lehte teada anda, võid mulle ka selle aadressi PSi teel edastada. Ma ei saa mingit põhjalikku analüüsi teha (praegu väga kiire aeg), aga võibolla üks koma kaks soovitust suudan anda.
Seniks, kuni asju normaalsetesse piiridesse suruda, võiks tõesti vist suurendada andmeedastusmahtu... Kõiksugu muutused võtavad päris kaua aega. Mina ise olen näiteks hakanud optimeerima oma lehte juba siis, kui 1/3 lubatavast mahust täidetud on... igaks-juhuks...
"USA äridomeenide" kui säherduse keelamine vist on isegi võimalik. Probleem on aga selles, et nii mõnigi Eesti päritolu mazzin tuvastub serveri jaoks USAst tulevaks, siis neil kah ligipääs puudub. Server mingit ip-aadressi jälitamist minuteada küll ei tee... aga pole serverite ekspert... juhendeid kah selles osas ei oska anda...
Lisan hiljem. Ühte blokeerimist ma siiski kah oskan. .htaccess faili:
deny from 84.50.235.85
Näiteks... aitab väga hästi, kui spämmija tuleb ühelt ip-aadressilt. Teor. saab ka niimoodi domeene/ip-vahemikke blokeerida... Uuri välja, mis ip spämmib...
|
|
Kommentaarid: 3 loe/lisa |
Kasutajad arvavad: |
|
:: |
0 :: |
0 :: |
3 |
|
tagasi üles |
|
|
Traf
Kreisi kasutaja
liitunud: 04.12.2007
|
29.01.2008 15:46:01
|
|
|
Lülita phpBB2'l kindlasti gzip-pakkimine sisse, saad seda teha adminipaneelis üldise konfiguratsiooni all. Endal vähenes ühe html-lehe suurus umbes 8 korda ja igakuine bandwidth umbes 6 korda, kui nii tegin.
edit: statistikat uurides saad kindlaks teha, mis sul kõige rohkem andmeedastust sööb. Kui tegu on html lehtedega (statistikas näitab päringuid .php lõpulistele aadressidele) siis on gzip kindlasti abiks.
|
|
Kommentaarid: 48 loe/lisa |
Kasutajad arvavad: |
|
:: |
0 :: |
0 :: |
47 |
|
tagasi üles |
|
|
erikliiv
HV veteran
liitunud: 02.02.2004
|
03.02.2008 12:58:00
|
|
|
Traf kirjutas: |
Lülita phpBB2'l kindlasti gzip-pakkimine sisse, saad seda teha adminipaneelis üldise konfiguratsiooni all. Endal vähenes ühe html-lehe suurus umbes 8 korda ja igakuine bandwidth umbes 6 korda, kui nii tegin.
edit: statistikat uurides saad kindlaks teha, mis sul kõige rohkem andmeedastust sööb. Kui tegu on html lehtedega (statistikas näitab päringuid .php lõpulistele aadressidele) siis on gzip kindlasti abiks. |
Nüüd peale robotite keelamist on kukkunud päevane andmeedastus 1gb -> 300mb. Jah, php faile ainult süüakse. Ega mul muud seal midagi võtta polegi. Aga katsetan seda gzip-i kah ja eks siis näeb mis sellest saama hakkab...
|
|
Kommentaarid: 43 loe/lisa |
Kasutajad arvavad: |
|
:: |
1 :: |
0 :: |
39 |
|
tagasi üles |
|
|
Traf
Kreisi kasutaja
liitunud: 04.12.2007
|
03.02.2008 14:26:05
|
|
|
Ma keelasin ka alguses robotid ära, aga peale gzipi kasutusele võtmist jäi mul nii palju andmeedastust üle, et sain robotitele uuesti rohelise tule anda.
|
|
Kommentaarid: 48 loe/lisa |
Kasutajad arvavad: |
|
:: |
0 :: |
0 :: |
47 |
|
tagasi üles |
|
|
|