Merhaba, programlamaya yeni başladım ve küçük küçük programlar yazıyorum. Threading konusunda ise kafam karıştı nette ki tüm Türkçe döküman ve videolara baktım, sormak istediğim ise; Mesela bir metin dosyası içinde 10.000 site var bu sitelere requests ile istek atıp tüm içerikleri alacağım bunu thread ile daha kısa zaman da yapabilir miyim? Bir web sayfasına istek atarken aynı anda isteği bir dosyaya kaydedebilirim threads sayesinde bunda hemfikiriz, ama binlerce sayfaya istek attığım zamanı da kısaltmaya yararmıyor mu? Yoksa bunu multi process ile mi yapmalıyım ? Alttaki program da bu siteden yararlandım. Ben mi hata yapıyorum yoksa threading ile uzun süren tekrarlanabilir işleri kısaltmaya yaramıyor mu? Bazı programlarda görmüşsünüzdür --thread argümanı vardır --thread=1 derseniz uzun sürer --thread=20 derseniz kısa sürer bu tarzda bir şey yapmak istedim ama durum hüsran
import threading
import requests
sites = ["http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/"
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/"
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/",
"http://yasararabaci.tumblr.com",
"http://metehan.us",
"http://blog.tanshaydar.com",
"http://fatihmertdogancan.wordpress.com",
"http://ozgurerdogdu.blogspot.com/"
]
def craw():
for site in sites:
r = requests.get(site)
print(r.content)
t1 = threading.Thread(target=craw)
t1.start()
craw()