Mitt problem är att nån behöver scrapa svenska spel för att min sida ska fungera .
Kort förklarat så handlar det om liverättning och jag måste få tillgång till uppdateringar om mål på svenska spel .
Mina förutsättningar .
Har en websida på Miss Hosting som inte tillhandahåller Node Js . Det språket trodde jag att det skulle fixa alla mina problem men inte . Har knappt lärt mig nått av det språket innan jag förstod att det inte skulle hjälpa mig .
Däremot har jag lärt mig grunderna i python och selenium . Så just nu ser mitt upplägg ut så här .
Selenium scrapar Svenska Spel , sen scrapar den min sida och fyller i allt som den scrapat från svsp på min sida . Det fungerar perfekt .
Problemet är bara att mina datorer är beroende av internet för att den lösningen ska fungera . Och min enda uppkoppling är på min telefon som jag tar med mig när jag åker hemmifrån . Och programmet behöver scrapeuppdateringar typ varje minut dygnet runt .
Det borde finnas en lösning . Nån som kan vägleda mig ?
En av sidor som jag vill scrapa .
https://spela.svenskaspel.se/topptip...3-07/statistik
Min sida dit allt fylls i
https://tipzer.se/skrivatillpyton.html
Min sida där allt ska fungera när man klickar starta rättning (det gör det inte nu . Europatipset fungerar , om man vill se vad för data jag vill ha hem .)
https://tipzer.se/topptipset.php
Min nuvarande python kod .
Jag tjänar ingenting på sidan så det är inte ett alternativ att sitta hemma och upplåta internet åt sidan . Nån som har en lösning ????
Kort förklarat så handlar det om liverättning och jag måste få tillgång till uppdateringar om mål på svenska spel .
Mina förutsättningar .
Har en websida på Miss Hosting som inte tillhandahåller Node Js . Det språket trodde jag att det skulle fixa alla mina problem men inte . Har knappt lärt mig nått av det språket innan jag förstod att det inte skulle hjälpa mig .
Däremot har jag lärt mig grunderna i python och selenium . Så just nu ser mitt upplägg ut så här .
Selenium scrapar Svenska Spel , sen scrapar den min sida och fyller i allt som den scrapat från svsp på min sida . Det fungerar perfekt .
Problemet är bara att mina datorer är beroende av internet för att den lösningen ska fungera . Och min enda uppkoppling är på min telefon som jag tar med mig när jag åker hemmifrån . Och programmet behöver scrapeuppdateringar typ varje minut dygnet runt .
Det borde finnas en lösning . Nån som kan vägleda mig ?
En av sidor som jag vill scrapa .
https://spela.svenskaspel.se/topptip...3-07/statistik
Min sida dit allt fylls i
https://tipzer.se/skrivatillpyton.html
Min sida där allt ska fungera när man klickar starta rättning (det gör det inte nu . Europatipset fungerar , om man vill se vad för data jag vill ha hem .)
https://tipzer.se/topptipset.php
Min nuvarande python kod .
Kod:
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
import time
import sys
browser = webdriver.Firefox()
wbrowser= webdriver.Firefox()
browser.get('https://spela.svenskaspel.se/europatipset/resultat')
wbrowser.get("https://tipzer.se/skrivatilleu.html")
time.sleep(20)
st=browser.find_element(By.XPATH,'//*[@id="onetrust-accept-btn-handler"]')
st.click()
for a in range(10):
print (a)
time.sleep(10)
res1=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[1]/a/div[3]").text
res2=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[2]/a/div[3]").text
res3=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[3]/a/div[3]").text
res4=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[4]/a/div[3]").text
res5=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[5]/a/div[3]").text
res6=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[6]/a/div[3]").text
res7=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[7]/a/div[3]").text
res8=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[8]/a/div[3]").text
res9=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[9]/a/div[3]").text
res10=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[10]/a/div[3]").text
res11=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[11]/a/div[3]").text
res12=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[12]/a/div[3]").text
res13=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[2]/div[1]/div/div[13]/a/div[3]").text
print (res1,"\n",res2,"\n",res3,"\n",res4,"\n",res5,"\n",res6,"\n",res7,"\n",res8,"\n",res9,"\n",res10,"\n",res11,"\n",res12,"\n",res13,"\n","\n")
utd13=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[3]/div[2]/section/div/ol/li[1]/span[2]").text
utd12=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[3]/div[2]/section/div/ol/li[2]/span[2]").text
utd11=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[3]/div[2]/section/div/ol/li[3]/span[2]").text
utd10=browser.find_element(By.XPATH,"/html/body/div[3]/div[1]/div/div[2]/div[2]/div/div[2]/div[1]/div[3]/div[2]/section/div/ol/li[4]/span[2]").text
print(utd13,"\n",utd12,"\n",utd11,"\n",utd10,"\n")
pyton=wbrowser.find_element(By.ID,"res")
pyton.send_keys(res1,"*",res2,"*",res3,"*",res4,"*",res5,"*",res6,"*",res7,"*",res8,"*",res9,"*",res10,"*",res11,"*",res12,"*",res13,"*")
pyton=wbrowser.find_element(By.ID,"utd")
pyton.send_keys(utd13,"*",utd12,"*",utd11,"*",utd10)
pyton=wbrowser.find_element(By.ID,"pp")
Jag tjänar ingenting på sidan så det är inte ett alternativ att sitta hemma och upplåta internet åt sidan . Nån som har en lösning ????