我应该使用什么Web服务器(以及为什么)来进行Lua Web开发?
删除死了Imageshack链接 – &符号与分号 尽pipe强烈build议( W3C源代码 ,通过维基百科 )为Web服务器支持分号作为URL查询项目的分隔符(除了&符号之外),但似乎并没有遵循。 例如,比较 http://www.google.com/search?q=nemo& oe = utf-8 http://www.google.com/search?q=nemo ; OE = UTF-8 结果。 (在后一种情况下,分号是, 或正在编写此文本时 ,将其视为普通string字符,就像URL是: http : //www.google.com/search?q=nemo %3B oe = utf-8 ) 虽然我尝试的第一个URLparsing库,但performance良好: >>> from urlparse import urlparse, query_qs >>> url = 'http://www.google.com/search?q=nemo;oe=utf-8' >>> parse_qs(urlparse(url).query) {'q': ['nemo'], 'oe': ['utf-8']} 什么是接受分号作为分隔符的当前状态,什么是潜在的问题或一些有趣的笔记? (从服务器和客户端的angular度来看)
我正在尝试使用netcat(nc)设置一个最小的Web服务器。 例如,当浏览器调用localhost:1500时,它应该显示一个函数的结果(在下面的例子中是date ,但最终会是一个产生一些数据的python或c程序)。 我的小型netcat web服务器需要在bash中成为一个真正的循环,可能就像这样简单: while true ; do echo -e "HTTP/1.1 200 OK\n\n $(date)" | nc -l -p 1500 ; done 当我尝试这个浏览器显示当前可用的数据在NC开始的那一刻。 不过,我希望浏览器在浏览器请求的时候显示数据。 我怎样才能做到这一点?
我们在一台也使用Perl提供页面的机器上安装了Apache Web服务器。 对于一个项目,我决定使用Node.js而不是Perl / Ruby。 只是想知道是否有可能使用Apache作为我的networking服务器(所以它服务的页面),并使用Node.jsdynamic创build网页(这是一个Web应用程序,我正在创build)? 换句话说,它们可以像Apache / Perl或Apache / PHP一样携手合作。
通过nginx的基本安装,您的sites-available文件夹只有一个文件: default sites-available文件夹是如何工作的?我将如何使用它来托pipe多个(单独的)网站?
请告诉我Web服务器,Web容器和应用程序服务器之间的区别。
我已经安装了Windows 10内幕scheme。 一切正常,除了Apache。 当我尝试启动它时,它说端口80被阻塞。 有没有办法阻止它或告诉Apache使用另一个端口呢? 我以前使用Windows 7。 我有与Skype的端口80的麻烦,但我已禁用它。
我很困惑Mongrel2服务的目的是什么, Nginx没有提供。 (是的,我已经阅读了手册,但我必须是一个小白,以了解它是如何根本不同于nginx) 我目前的Web应用程序堆栈是: – nginx :webserver – Lua :编程语言 – FastCGI + LuaJIT :将nginx连接到Lua – Postgres :数据库
我试图在nodejs中创build一个静态文件服务器,作为理解节点的一个练习,而不是一个完美的服务器。 我非常了解像Connect和node-static这样的项目,并且完全打算将这些库用于更多的生产就绪代码,但是我也想了解我正在使用的基础知识。 考虑到这一点,我编写了一个小的server.js: var http = require('http'), url = require('url'), path = require('path'), fs = require('fs'); var mimeTypes = { "html": "text/html", "jpeg": "image/jpeg", "jpg": "image/jpeg", "png": "image/png", "js": "text/javascript", "css": "text/css"}; http.createServer(function(req, res) { var uri = url.parse(req.url).pathname; var filename = path.join(process.cwd(), uri); path.exists(filename, function(exists) { if(!exists) { console.log("not exists: " + filename); res.writeHead(200, […]
所以根据haproxy作者,谁知道关于http: 发明了“保持活力”,以便在CPU速度降低100倍时降低服务器上的CPU使用率。 但是没有说的是,持久连接会消耗大量的内存,除了打开它们的客户端之外,任何人都不能使用它们。 今天在2009年,CPU的价格非常便宜,内存仍然限制在几千兆的架构或价格。 如果一个网站需要保持活力,那么确实存在一个问题。 高负载的网站通常禁用保持活动,以支持最大数量的同时客户端。 没有保持活力的真正缺点是获取对象的延迟稍微增加。 浏览器将非保持活动网站上的并发连接数加倍,以弥补这一点。 (来自http://haproxy.1wt.eu/ ) 这是否符合其他民族的经验? 即没有保持活力 – 是现在几乎不可知的结果? (它可能值得注意的是,使用websockets等 – 连接保持“打开”无论如何保持活着状态 – 对于响应速度非常快的应用程序)。 对于远离服务器的人来说效果会更好 – 或者在加载页面时从同一主机加载的工件数量很多? (我认为像CSS,图像和JS越来越多来自caching友好的CDN)。 思考? (不知道这是否是一个serverfault.com的事情,但我不会交,直到有人告诉我把它移到那里)。