• JavaScript常用工具函数汇总(浏览器环境)

    2020-09-17

    前端业务中比较常用的JavaScript工具函数,浏览器环境常用,可直接拷贝在项目里使用。这里统一整理,方便查阅,本文章会持续更新。一、file转为base64/** * file转为base64 * @param {*} file file对象 * @param {*} callback  */export const fileToDataURL = (file, callback) => {

  • 返回上一个url并刷新界面的js代码

    2020-09-13

    JS 重载页面,本地刷新,返回上一页<a href="javascript:history.go(-1)" rel="external nofollow" >返回上一页</a><a href="javascript:location.reload()" rel="external nofollow" >重载页面,本地刷新</a><a href="javascript:history.go(-1);

  • php使用curl伪造浏览器访问操作示例

    2020-09-10

    本文实例讲述了php使用curl伪造浏览器访问操作。分享给大家供大家参考,具体如下:原理服务器主要通过User-Agent识别客户端是何种设备User-Agent是Http协议中的一部分,属于头域的组成部分。基本格式为: 浏览器标识 (操作系统标识; 加密等级标识; 浏览器语言) 渲染引擎标识 版本信息。具体方法如下/** * curl获取数据 * @param $url * @return mi

  • php更新cookie内容的详细方法

    2020-09-10

    cookie 是由服务器发送到浏览器的变量。cookie 通常是服务器嵌入到用户计算机中的小文本文件。每当计算机通过浏览器请求一个页面,就会发送这个 cookie。 (推荐学习:PHP视频教程)cookie 的名称指定为相同名称的变量。例如,如果被发送的 cookie 名为 "name",会自动创建名为 $user 的变量,包含 cookie 的值。必须在任何其他输出发送前对 cookie 进行赋

  • python如何爬取动态网站

    2020-09-10

    python有许多库可以让我们很方便地编写网络爬虫,爬取某些页面,获得有价值的信息!但许多时候,爬虫取到的页面仅仅是一个静态的页面,即网页 的源代码,就像在浏览器上的“查看网页源代码”一样。一些动态的东西如javascript脚本执行后所产生的信息,是抓取不到的,这里暂且先给出这么一 些方案,可用于python爬取js执行后输出的信息。1、两种基本的解决方案1.1 用dryscrape库动态抓取页

  • php中关于换行的实例写法

    2020-09-08

    在编写PHP脚本代码的时候,我们经常会看到\n和<br/>这两个字符,它们都有换行的作用,那么到底有什么区别呢?  1.\n是使源代码换行,而浏览器显示的内容不换行;  2.<br />是使浏览器显示的内容换行,而源代码不换行。例如,PHP代码1:<phpecho 0;echo "\n";echo 1;>例如<phpecho 0;echo "<br />";echo 1;>好了,这就是\n和<br

  • php使用curl伪造浏览器访问操作示例

    2020-09-05

    本文实例讲述了php使用curl伪造浏览器访问操作。分享给大家供大家参考,具体如下:原理服务器主要通过User-Agent识别客户端是何种设备User-Agent是Http协议中的一部分,属于头域的组成部分。基本格式为: 浏览器标识 (操作系统标识; 加密等级标识; 浏览器语言) 渲染引擎标识 版本信息。具体方法如下/** * curl获取数据 * @param $url * @return mi

  • php更新cookie内容的详细方法

    2020-09-05

    cookie 是由服务器发送到浏览器的变量。cookie 通常是服务器嵌入到用户计算机中的小文本文件。每当计算机通过浏览器请求一个页面,就会发送这个 cookie。 (推荐学习:PHP视频教程)cookie 的名称指定为相同名称的变量。例如,如果被发送的 cookie 名为 "name",会自动创建名为 $user 的变量,包含 cookie 的值。必须在任何其他输出发送前对 cookie 进行赋

  • Vue利用localStorage本地缓存使页面刷新验证码不清零功能的实现

    2020-09-04

    今天我们使用本地缓存localStorage来实现页面刷新了,验证码倒计时还是和刷新时一样,而不是清零,其次我们可以使用localStorage去实现用户信息缓存,记住密码等等关于缓存的功能,在这里就简单演示一下验证码功能。一、功能实现话不多说,直接上代码<template><button @click="getCode()" :disabled="!show">  <span v-show="s

  • Laravel开启跨域请求的方法

    2020-09-04

    项目中用到了接口,外部调用的时候老是请求不到,本地请求却没问题,查了下说是因为跨域的问题。根据网上所说解决方法如下:1、建立中间件Cors.php 命令:php artisan make:middleware Cors在/app/Http/Middleware/ 目录下会出现一个Cors.php 文件。2、在handle 方法中加入如下内容: $response = $next($request)

  • 关于vue-cli3打包代码后白屏的解决方案

    2020-09-02关键词: 发现路径路由浏览器模式

    前言 :最近使用了vue-cli3.0 开发了一个移动网页端项目,准备打包发布了。按照以往的流程 npm run build问题来了打开 dist index.html 文件发现白屏。打开调试后 发现文件引用路径不对根据以往的经验 根目录下新建 vue.config.js配置 publicPathmodule.exports = {  ...  runtimeCompiler: true,  pu

  • PHP判断当前使用的是什么浏览器(推荐)

    2020-09-01关键词: 浏览器的是方法搜狗类型

    PHP简单判断当前使用的是什么浏览器,判断浏览器类型的方法,方便统计网站访问用户使用浏览器的比例。判断浏览器类型方法一function userBrowser() {  $user_OSagent = $_SERVER['HTTP_USER_AGENT'];   if (strpos($user_OSagent, "Maxthon") && strpos($user_OSagent, "MSIE"

  • php 输出缓冲 Output Control用法实例详解

    2020-09-01

    本文实例讲述了php 输出缓冲 Output Control用法。分享给大家供大家参考,具体如下:关于php的输出缓冲,首先要说明的是什么是缓冲(buffer),比如我们通过记事本在编辑文件的时候,并不是我们输入了内容,系统就会立刻向磁盘中写入数据。只有我们在保存文件后,系统才会向磁盘写入数据。而之前我们输入的内容全部保存在了文件缓冲区中,只有当缓冲区写满或者执行保存时,数据才会写入磁盘。而php

  • PHP如何获取Cookie并实现模拟登录

    2020-09-01

    一、定义Cookie存储路径必须使用绝对路径$cookie_jar = dirname(__FILE__)."/pic.cookie";二、获取Cookie将cookie存入文件$url = "http://1.2.3.4/";$ch = curl_init();curl_setopt($ch, CURLOPT_URL, $url);curl_setopt($ch, CURLOPT_HEADER,

  • PHP大文件及断点续传下载实现代码

    2020-09-01关键词: 文件浏览器几个路径批量

    一般来说浏览器要同时下载几个文件,比如pdf文件,会在服务器端把几个文件压缩成一个文件。但是导致的问题就是会消耗服务器的cpu和io资源。那有没有办法,用户点了几个文件,在客户端同时下载呢? 支持html5的浏览器是可以的,html的a标签有一个属性download<a download="下载的1.pdf" href="1.pdf" rel="external nofollow" rel="ex

  • PHP常用header头定义代码示例汇总

    2020-09-01

    在php的开发中,我们常常需要使用到header函数头来进行做标记header() 函数向客户端发送原始的 HTTP 报头。常用header设置列表如下:header('HTTP/1.1 200 OK'); // ok 正常访问header('HTTP/1.1 404 Not Found'); //通知浏览器 页面不存在header('HTTP/1.1 301 Moved Permanently'

  • vscode如何设置默认打开的浏览器为Chrome

    2020-08-31关键词: 浏览器在这里插入图片插件快捷键

    在使用vscode编辑器的时候,如果我们不设置默认浏览器,那么直接打开的是IE浏览器,在进行页面调试的时候无疑是有点麻烦的,下面我们就说一下如何设置打开的浏览器为chromeopen in Browser首先需要安装open in browser插件,如果安装过了可以跳过此步骤然后修改默认浏览器为Chrome:选择文件—首选项—设置,在搜索栏输入open-in-browser.default,输入

  • Python3+selenium配置常见报错解决方案

    2020-08-31

    第一个坑:'geckodriver' executable needs to be in PATH1.如果启动浏览器过程中报如下错误Traceback (most recent call last):File "<stdin>", line 1, in <module>File "D:\test\python3\lib\site-packages\selenium\webdriver\firefo

  • Python实现自动签到脚本功能

    2020-08-31关键词: 脚本浏览器火狐的是报错

    实训课期间忙里偷闲的学习了python的selenium包,唯一一点不好是要自己去查英文文档,明摆着欺负我这种英语不好的,想着用谷歌翻译一下,代码也给我翻译了,不知道是几个意思。大二的时候就让我们做自动签到脚本,说用JS可以写一下,但是说着说着就给忘了,现在学了python后又想起来要写一个自动签到的脚本,不得不佩服python的强大,短短二十行左右的代码就实现了,虽然说脚本还需要手动操作去运行,

  • Python实现自动签到脚本的示例代码

    2020-08-31关键词: 脚本浏览器火狐的是报错

    实训课期间忙里偷闲的学习了python的selenium包,唯一一点不好是要自己去查英文文档,明摆着欺负我这种英语不好的,想着用谷歌翻译一下,代码也给我翻译了,不知道是几个意思。大二的时候就让我们做自动签到脚本,说用JS可以写一下,但是说着说着就给忘了,现在学了python后又想起来要写一个自动签到的脚本,不得不佩服python的强大,短短二十行左右的代码就实现了,虽然说脚本还需要手动操作去运行,

  • Python爬虫防封ip的一些技巧

    2020-08-31关键词: 爬虫措施技巧器中浏览器

    在编写爬虫爬取数据的时候,因为很多网站都有反爬虫措施,所以很容易被封IP,就不能继续爬了。在爬取大数据量的数据时更是瑟瑟发抖,时刻担心着下一秒IP可能就被封了。本文就如何解决这个问题总结出一些应对措施,这些措施可以单独使用,也可以同时使用,效果更好。伪造User-Agent在请求头中把User-Agent设置成浏览器中的User-Agent,来伪造浏览器访问。比如:headers ={'User-

  • Flask缓存静态文件的具体方法

    2020-08-31关键词: 缓存静态文件浏览器可以看到

    大家好,今天才发现很多学习Flask的小伙伴都有这么一个问题,清理缓存好麻烦啊,今天就教大家怎么解决。大家在使用Flask静态文件的时候,每次更新,发现CSS或是Js或者其他的文件不会更新。这是因为浏览器的缓存问题。普遍大家是这几步解决办法。·清理浏览器缓存;·设置浏览器不缓存;·也有以下这么写的:@app.context_processordef override_url_for():    r

  • python中selenium库的基本使用详解

    2020-08-31关键词: 元素浏览器方式测试多个

    什么是seleniumselenium 是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。selenium 是一套完整的web应用程序测试系统,包含了测试的录制(selenium IDE),编写及运行(S

  • python爬虫请求头设置代码

    2020-08-31

    一、requests设置请求头:import requestsurl="http://www.targetweb.com"headers={'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8','Cache-Control':'max-age=0','Connection':'ke

  • 学python爬虫能做什么

    2020-08-31

    世界上80%的爬虫是基于Python开发的,学好爬虫技能,可为后续的大数据分析、挖掘、机器学习等提供重要的数据源。什么是爬虫?网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。其实通俗的讲就是通过程序去获取web页面上自己想要的数据,也就是自动抓

 655    1 2 3 4 5 6 7 8 9 10 下一页 尾页

分类点击榜

    栏目ID=0的表不存在(操作类型=0)

分类评论榜

    栏目ID=0的表不存在(操作类型=0)

微信扫一扫

易采站长站微信账号