]> git.mxchange.org Git - fba.git/commitdiff
Continued:
authorRoland Häder <roland@mxchange.org>
Mon, 20 May 2024 12:33:25 +0000 (14:33 +0200)
committerRoland Häder <roland@mxchange.org>
Mon, 20 May 2024 12:33:25 +0000 (14:33 +0200)
- some servers may return '<html something>' at the start (position 0),
- so if string.find() cannot find that string "<html", it will return -1 instead
  of zero

fba/http/csrf.py
fba/http/federation.py

index 0e9a3a87bae74e0b3d05a7d6d1160c94fe61a193..57ed5447d2ce6ab6676b01cbb33d7bb8ec5e5105 100644 (file)
@@ -54,7 +54,7 @@ def determine(domain: str, headers: dict) -> dict:
     )
 
     logger.debug("response.ok='%s',response.status_code=%d,response.text()=%d", response.ok, response.status_code, len(response.text))
-    if response.ok and response.status_code == 200 and response.text.strip() != "" and response.text.find("<html") > 0 and domain_helper.is_in_url(domain, response.url.split("#")[0]):
+    if response.ok and response.status_code == 200 and response.text.strip() != "" and response.text.find("<html") >= 0 and domain_helper.is_in_url(domain, response.url.split("#")[0]):
         # Save cookies
         logger.debug("Parsing response.text()=%d Bytes ...", len(response.text))
         cookies.store(domain, response.cookies.get_dict())
index aafef11eed2780abddc6355838a25104884e0b0b..d9101c6137a69938e0243c5c25c88a0d6fc7c6a7 100644 (file)
@@ -297,7 +297,7 @@ def fetch_generator_from_path(domain: str, path: str = "/") -> str:
     response_url = response.url.split("#")[0]
 
     logger.debug("response.ok='%s',response.status_code=%d,response.text()=%d,response_url='%s'", response.ok, response.status_code, len(response.text), response_url)
-    if ((response.ok and response.status_code == 200) or response.status_code == 410) and response.text.find("<html") > 0 and validators.domain(response_url) and domain_helper.is_in_url(domain, response_url):
+    if ((response.ok and response.status_code == 200) or response.status_code == 410) and response.text.find("<html") >= 0 and validators.domain(response_url) and domain_helper.is_in_url(domain, response_url):
         logger.debug("Parsing response.text()=%d Bytes ...", len(response.text))
         doc = bs4.BeautifulSoup(response.text, "html.parser")