2024-03-23 16:46:00    0    0    0
  1. npm install -g npm
2024-03-07 12:54:55    0    0    0

Illuminate\Notifications\NexmoChannelServiceProvider' not found

因为切换分支,缓存问题,删除bootstrap\cache里面的文件

2024-02-11 18:57:28    0    0    0

主机记录为 xxxx

记录值为 yyyy

假设你的域名为 test.com

OK,我们添加TXT记录解析之后,验证一下是否生效,如下:

在Windws,运行cmd调出命令窗口,输入:

nslookup -qt=txt xxxx.test.com

然后就可以看到记录值yyyy了,

同样,MX记录这些也可以,就是上面的命令带的参数改为 -qt=mx。

类似的,就这样。

不过dns有点特别,是-qt=ns

说具体一下吧,比如,test.com添加了一个TXT记录_dnsauth,记录值为abcd111122223333

在cmd窗口输入,nslookup -qt=txt _dnsauth.test.com(注意txt后面有空格)就可以看到这条记录值“abcd111122223333”了。
————————————————
原文链接:https: //blog.csdn.net/Sslhow/article/details/124533410

2024-01-06 14:55:30    0    0    0

修改文件/vendor/laravel/framework/src/Illuminate/Support/Collection.php

  1. public function mapWithKeys(callable $callback)
  2. {
  3. $result = [];
  4. $item = $this->items;
  5. if(isset($item['packages'])){
  6. $item = $item['packages'];
  7. }
  8. foreach ($item as $key => $value) {
  9. $assoc = $callback($value, $key);
  10. foreach ($assoc as $mapKey => $mapValue) {
  11. $result[$mapKey] = $mapValue;
  12. }
  13. }
  14. return new static($result);
  15. }
2023-12-03 00:47:28    0    0    0

步骤:

  1. 新创建的项目应先检查配置文件是否存在(若存在该步骤省略)
  2. Linux中,在项目根目录下执行命令:php artisan key:generate 该命令会生成APP_KEY并写入到.env文件中
  3. 若APP_KEY 生成后仍然报错“No application encryption key has been specified”,则是 laravel 应用缓存导致,执行命令 php artisan cache:clear 清理应用缓存;清除完缓存,必须重新配置缓存,执行命令 php artisan config:cache 重新配置缓存!
  4. 若还是不行,则检查是否禁用了putenv函数
2023-11-23 11:55:40    0    0    0

前言:宝塔面板安装好Nginx后启动报错:Starting nginx... /www/server/nginx/sbin/nginx: error while loading shared libraries: libjemalloc.so.2: cannot open shared object file: No such file or directory
failed,折腾了一下,终于解决了这个问题。或者报错:找不到libluajit-5.1.so.2。
原因:报错如图,字面意思看是找不到 “libjemalloc.so.2”和libluajit-5.1.so.2这个库文件。
说明:如果是缺少其他库文件,也可以参考这个方法处理。
如果有重要业务运行,建议做好快照,以免异常可以还原。

解决方法:亲测
经过测试,有两个解决方法。
方法一:(如果能搜索到文件,建议使用方法1)
1、执行如下命令查看下nginx启动时调用的库文件。

  1. ldd /www/server/nginx/sbin/nginx

说明:若您的nginx不是宝塔安装,将上面路径更换为您自己的宝塔启动路径。
执行后显示如下:

  1. [root@blog.tag.gg~]# ldd /www/server/nginx/sbin/nginx
  2. linux-vdso.so.1 => (0x00007ffd36fa7000)
  3. libjemalloc.so.2 => not found
  4. libdl.so.2 => /lib64/libdl.so.2 (0x00007fdacbecc000)
  5. libpthread.so.0 => /lib64/libpthread.so.0 (0x00007fdacbcb0000)
  6. libcrypt.so.1 => /lib64/libcrypt.so.1 (0x00007fdacba79000)
  7. libluajit-5.1.so.2 => not found
  8. libm.so.6 => /lib64/libm.so.6 (0x00007fd
2023-11-16 16:38:50    0    0    0
  1. public function test(Request $request) {
  2. $view = view('test');
  3. Storage::disk('local')->put('views/' . $request->path(), $view->render());
  4. return $view;
  5. }

————————————————
原文作者:Wangds
转自链接:https://learnku.com/articles/51744

2023-11-14 20:49:05    0    0    0

相信各位的电脑不一定是自个用,但要想别人动不了你的文件,就有这个办法了——————“打不开也删除不了的方法”(只有自己才能打开或者删除哦):
既简单又实用!!相信大家不会走宝放过的。。。。(abc为自己命名的文件夹)

方法一:

点开始 - 运行 - CMD
打开命令提示符 - 用 CD 跳到要做加密文件夹的目录.
例如,我要在D盘 创建:输入:cd /d d:\再用md命令生成一个文件夹.
例如,在D盘生成 叫abc的文件夹:输入:md abc.. \完成.
(这种文件夹 双击进不去. 不能删除. 不能复制. 不能剪切..)
要打开 就再在命令提示符里面.
输入:start c:\abc..\
删除时先用cd进入该盘符下再用rd abc..\
  第一步:在运行中输入cmd,回车,打开命令行窗口
  第二步:在命令行窗口中切换到想要建立文件夹的硬盘分区,如D盘
  第三步:输入MD 123\回车,注意文件夹名后有2个小数点
  OK,搞定,看看你的D盘下面是不是多了一个名为123.的文件夹了?它是既不能进入又不能被删除的!不信你就试试看吧
  如果想删除,在命令行窗口中输入rd 123\回车,即可删除,当然删除前请确认里面的文件都是不需要的,不要删错了,呵呵。
  如果想进入,在命令行窗口中输入start d:\123\(注意这里一定要是文件夹的绝对路径,否则无法打开即可打开此文件夹),你就可以随心所欲的把不想让别人看到的资料放进去啦
  

方法二:

使用加密软件加密 。下载一个加密软件如:“宏杰加密软件”

2023-11-12 21:08:21    0    0    0

切换分支后代码报错Laravel\Socialite\SocialiteServiceProvider,搜索全局不见Socialite

解决方案

删除缓存文件夹boostratp/cache里面的两个缓存文件

2023-08-17 18:15:56    0    0    0

一般的蜘蛛都会在后台控制面板中显示名字,例如baidu,google,yahoo,alexa等等,但是如果你用的虚拟主机是cpanel的控制面板,那么发现Unknown robot (identified by 'spider')这个蜘蛛消耗很大的网站流量,那么可以推测这个是百度蜘蛛,因为cpanel的控制面板默认是不识别百度蜘蛛的,所以就会显示为Unknown robot (identified by 'spider')。而且通过robots.txt是无法禁止这个蜘蛛抓取网站内容的——这些垃圾爬虫不可能老老实实遵守robots规则,君不见新浪和字节前段时间还因为robots.txt打了官司,大厂都如此,其他爬虫更别指望。

宝塔屏蔽常见垃圾蜘蛛和扫描工具的两种办法:最近观察网站后台网站蜘蛛爬取状况,除了我们常见的搜索引擎如百度、Google、Sogou、360等搜索引擎蜘蛛之外,还发现有很多垃圾的蜘蛛平繁的爬取本站,通常这些搜索引擎不仅不会带来流量,因为大量的抓取请求,还会造成主机的CPU和带宽资源浪费,屏蔽方法也很简单,按照下面步骤操作即可,原理就是分析指定UA然后屏蔽。

下面给大家带来两种屏蔽垃圾蜘蛛的方法

方法一 通过网站Robots.txt来屏蔽

  1. User-agent: AhrefsBot
  2. Disallow: /
  3. User-agent: DotBot
  4. Disallow: /
  5. User-agent: SemrushBot
  6. Disallow: /
  7. User-agent: Uptimebot
  8. Disallow: /
  9. User-agent: MJ12bot
  10. Disallow: /
  11. User-agent: MegaIndex.ru
  12. Disallow: /
  13. User-agent: ZoominfoBot
  14. Disallow: /
  15. User-agent: Mail.Ru
  16. Disallow: /
  17. User-agent: SeznamBot
  18. Disallow: /
  19. User-agent: BLEXBot
  20. Disallow: /
  21. User-agent: ExtLinksBot
  22. Disallow: /
  23. User-agent: aiHitBot
  24. Disallow: /
  25. User-agent: Rese
1/12