Database - Veritabanı
54M Satir İcerisinde Select (Read) Query İcin En İyi Veri Tabani Cozumu?
54M Satir İcerisinde Select (Read) Query İcin En İyi Veri Tabani Cozumu?
-
düz sayfalama yapmak zorunda kalacak mısın peki?
-
Benzer bir şeyi ben de düşünüyordum, mysql'e bakacağım(sadece veri çekme için iyiymiş)
-
MhmdAlmz bunu yazdı
Hocam eğer insert işlemin yoksa MySQL MyIsam öneririm. Sanırım burda NoSQL en hızlısı olacaktır. Belki MyIsam daha hızlıdır (çünkü bu iş için yapılan bir engine diye biliyorum). Bir araştır istersen. Hatta bir aralar @rakkoc sanırım daha önce böyle bir şey yapmıştı gibi.
EDİT: Insert ya da Update yapacaksan MyIsam çok kötü performans gösterir.
huauhha hatırlamana şaşirdim. Ticari işlerim dişinda bir hobi işi ile ilgili suanda cook büyük bir data oluşturdum yaklasik 10 tb (indexler hariç) bunları ben suanda tampon olarak mongo db de tutuyorum. gün sonunda oracle'a taşıyorum. fakat bende select günde 2-3 iken, günde 25M ile 32M arası kayıt insert ediliyor. bunuda 250M nin üzerine cikartmak istiyorum. (hayal işte)
benim suanda 2^40 (1 trilyonu aşkın) record'um var dahada büyüyüyor. hedefim 2^128'e ulaşmak.
Dipnot: bittiğinda kaptana hediye ederim :p
-
rakkoc bunu yazdıMhmdAlmz bunu yazdı
Hocam eğer insert işlemin yoksa MySQL MyIsam öneririm. Sanırım burda NoSQL en hızlısı olacaktır. Belki MyIsam daha hızlıdır (çünkü bu iş için yapılan bir engine diye biliyorum). Bir araştır istersen. Hatta bir aralar @rakkoc sanırım daha önce böyle bir şey yapmıştı gibi.
EDİT: Insert ya da Update yapacaksan MyIsam çok kötü performans gösterir.
huauhha hatırlamana şaşirdim. Ticari işlerim dişinda bir hobi işi ile ilgili suanda cook büyük bir data oluşturdum yaklasik 10 tb (indexler hariç) bunları ben suanda tampon olarak mongo db de tutuyorum. gün sonunda oracle'a taşıyorum. fakat bende select günde 2-3 iken, günde 25M ile 32M arası kayıt insert ediliyor. bunuda 250M nin üzerine cikartmak istiyorum. (hayal işte)
benim suanda 2^40 (1 trilyonu aşkın) record'um var dahada büyüyüyor. hedefim 2^128'e ulaşmak.
Dipnot: bittiğinda kaptana hediye ederim :p
bana ?
-
abdullahazad bunu yazdırakkoc bunu yazdıMhmdAlmz bunu yazdı
Hocam eğer insert işlemin yoksa MySQL MyIsam öneririm. Sanırım burda NoSQL en hızlısı olacaktır. Belki MyIsam daha hızlıdır (çünkü bu iş için yapılan bir engine diye biliyorum). Bir araştır istersen. Hatta bir aralar @rakkoc sanırım daha önce böyle bir şey yapmıştı gibi.
EDİT: Insert ya da Update yapacaksan MyIsam çok kötü performans gösterir.
huauhha hatırlamana şaşirdim. Ticari işlerim dişinda bir hobi işi ile ilgili suanda cook büyük bir data oluşturdum yaklasik 10 tb (indexler hariç) bunları ben suanda tampon olarak mongo db de tutuyorum. gün sonunda oracle'a taşıyorum. fakat bende select günde 2-3 iken, günde 25M ile 32M arası kayıt insert ediliyor. bunuda 250M nin üzerine cikartmak istiyorum. (hayal işte)
benim suanda 2^40 (1 trilyonu aşkın) record'um var dahada büyüyüyor. hedefim 2^128'e ulaşmak.
Dipnot: bittiğinda kaptana hediye ederim :p
bana ?
external disk alip gel kibrisa veririm sanada. ama hizli bir sey al ki bu yüzyilda bitsin.
-
rakkoc bunu yazdıMhmdAlmz bunu yazdı
Hocam eğer insert işlemin yoksa MySQL MyIsam öneririm. Sanırım burda NoSQL en hızlısı olacaktır. Belki MyIsam daha hızlıdır (çünkü bu iş için yapılan bir engine diye biliyorum). Bir araştır istersen. Hatta bir aralar @rakkoc sanırım daha önce böyle bir şey yapmıştı gibi.
EDİT: Insert ya da Update yapacaksan MyIsam çok kötü performans gösterir.
huauhha hatırlamana şaşirdim. Ticari işlerim dişinda bir hobi işi ile ilgili suanda cook büyük bir data oluşturdum yaklasik 10 tb (indexler hariç) bunları ben suanda tampon olarak mongo db de tutuyorum. gün sonunda oracle'a taşıyorum. fakat bende select günde 2-3 iken, günde 25M ile 32M arası kayıt insert ediliyor. bunuda 250M nin üzerine cikartmak istiyorum. (hayal işte)
benim suanda 2^40 (1 trilyonu aşkın) record'um var dahada büyüyüyor. hedefim 2^128'e ulaşmak.
Dipnot: bittiğinda kaptana hediye ederim :p
o kadar pornoyu nerden buldun , vay anasını
-
Edit: Sorgu denmiş pardon.
Herhangi bir db ile elastic ile daha iyi sonuç alabilirsin gibime geliyor.
-
rakkoc bunu yazdıMhmdAlmz bunu yazdı
Hocam eğer insert işlemin yoksa MySQL MyIsam öneririm. Sanırım burda NoSQL en hızlısı olacaktır. Belki MyIsam daha hızlıdır (çünkü bu iş için yapılan bir engine diye biliyorum). Bir araştır istersen. Hatta bir aralar @rakkoc sanırım daha önce böyle bir şey yapmıştı gibi.
EDİT: Insert ya da Update yapacaksan MyIsam çok kötü performans gösterir.
huauhha hatırlamana şaşirdim. Ticari işlerim dişinda bir hobi işi ile ilgili suanda cook büyük bir data oluşturdum yaklasik 10 tb (indexler hariç) bunları ben suanda tampon olarak mongo db de tutuyorum. gün sonunda oracle'a taşıyorum. fakat bende select günde 2-3 iken, günde 25M ile 32M arası kayıt insert ediliyor. bunuda 250M nin üzerine cikartmak istiyorum. (hayal işte)
benim suanda 2^40 (1 trilyonu aşkın) record'um var dahada büyüyüyor. hedefim 2^128'e ulaşmak.
Dipnot: bittiğinda kaptana hediye ederim :p
Facebook işini hatırladım da, grupları mi kaziyorsun hala? 3:))
-
elesticsearch yeterli olur sorunun için.
Yok eklenti istemiyorum diyorsa ya date yapısını parçala (gün, ay, yıl, saat, dakika, saniye) şeklinde ve indexle
ya da partition kullanabilirsin o da çok hızlandırıyor read querilerinde .
Yada tabloyuda direk bölebilirsin belirli tarihler arası için. -
end bunu yazdırakkoc bunu yazdıMhmdAlmz bunu yazdı
Hocam eğer insert işlemin yoksa MySQL MyIsam öneririm. Sanırım burda NoSQL en hızlısı olacaktır. Belki MyIsam daha hızlıdır (çünkü bu iş için yapılan bir engine diye biliyorum). Bir araştır istersen. Hatta bir aralar @rakkoc sanırım daha önce böyle bir şey yapmıştı gibi.
EDİT: Insert ya da Update yapacaksan MyIsam çok kötü performans gösterir.
huauhha hatırlamana şaşirdim. Ticari işlerim dişinda bir hobi işi ile ilgili suanda cook büyük bir data oluşturdum yaklasik 10 tb (indexler hariç) bunları ben suanda tampon olarak mongo db de tutuyorum. gün sonunda oracle'a taşıyorum. fakat bende select günde 2-3 iken, günde 25M ile 32M arası kayıt insert ediliyor. bunuda 250M nin üzerine cikartmak istiyorum. (hayal işte)
benim suanda 2^40 (1 trilyonu aşkın) record'um var dahada büyüyüyor. hedefim 2^128'e ulaşmak.
Dipnot: bittiğinda kaptana hediye ederim :p
Facebook işini hatırladım da, grupları mi kaziyorsun hala? 3:))
onun kodunu bile kaybettim. Bir proje için kullandik geçti gitti :)
Bu suanda dünya üzerinde ki insan sayısının coooook üzerinde datam var. Bu şifreleme yöntemleri ile ilgili bir işlem.