Laravel Türkiye Discord Kanalı Forumda kod paylaşılırken dikkat edilmesi gerekenler!Birlikte proje geliştirmek ister misiniz?

saatte bir rss sayfalarından veri topluyorum. insertOrIgnore ile kaydediyorum. migrate dosyanda $table->unique('url'); tanımlı.

Sorunum şu, diyelim daha önce taradıgım 100 link var, saate bir den 5 tarama daha yaptım, yeni bir link yoktu. 6. saatte 10 yeni link daha eklenince.
önceki id nosu100 ken , 600 den devam ediyor. 601,602 olarak. yani sıralı gitmiyor.
Bu bir sorun mu, onuda bilemedim ama çok sayıda eklenen link var.

anladığım kadarı ile inserorignore dan kaynaklanıyormus. kodu ekleyip sonra yok saydıgından , veriyi eklemiyor ama id otomatik olarak ilerliyor.

Sorun şu ki, her saat başı kod çalışıyor ve binlerce satır olacak, bir kaç ay sonra id ler yüz milyonlarda gezecek. Bu bir sorun olur mu?

veya bir öneriniz var mı? son eklenen id yi almaya çalışıp bir şeyler yapmaya çalıştım ama başaramadım.

    aeneas Unsigned big integer sınırı 18446744073709551615.

    insertorignore yerine upsert denedim oda iyi çalışıyor ama aynı sorun var.

    bu sınırı doldura bileceğimi sanmıyorum. o zaman sorun yok gibi duruyor. teşşekkür ederim.

      Peki şöyle bir şey sorsam, amacım sadece yenilenen kayıtları önlemek ve veriler formdan gelmediğinden , http client ile başka siteleren çekildiğinden bir validation kontrolü yapamıyorum. insertorignore mu kullanmalıyım upsert mi ? upsert biraz daha yavaş çalışıyor gibi. veya başka bir alternatif var mı?

      aeneas Bu şekilde atlamaların olması normal ve gerekli. Ayrıca insertOrIgnore ile upsert farklı iş yapıyor.

      haklısınız hocam insertOrIgnor u sizin önerinizle kullanmıştım. ve daha mantıklı duruyor. linklerden birisi bozulmuşsa upsert ile sorun yaşarım.